Gruppi Facebook: primo passo contro estremismo, disinformazione e violenza

0
823

Era il 2019 quando Facebook ridisegnò la piattaforma e gli algoritmi così da favorire le attività dei “Gruppi”, pensati come forum di utenti con interessi affini. Mark Zuckerberg, ricorda oggi il Wall Street Journal, li aveva definiti “il nuovo cuore dell’app”.

Ma quello era il 2019. Era prima dell’escalation di violenza e polarizzazione e disinformazione che hanno portato agli eventi di Washington del 6 gennaio scorso. Era prima di “Stop the Steal” (letteralmente “Fermate il Furto”), gruppo nato come chiamata alle armi nel caso Donald Trump perdesse la scommessa di restare alla Casa Bianca per un secondo mandato. Era prima della storica decisione di Zuckerberg stesso di negare per sempre a Trump l’accesso a Facebook e Instagram. Ma non abbastanza “prima”: secondo una serie di documenti analizzati proprio dal Wall Street Journal, già lo scorso agosto gli analisti interni a Facebook avevano avvertito che la maggioranza dei cosiddetti gruppi “civici” presenti sulla piattaforma mostravano una dilagante propensione alla disinformazione e ripetuti appelli alla violenza. Tali gruppi sono generalmente dedicati alla politica e a questioni correlate e raggiungono centinaia di milioni di utenti.

I ricercatori avevano riferito ai manager di Facebook che un gruppo di 58.000 membri era pieno di quotidiani ed entusiastici appelli alla violenza, a quanto riporta una presentazione interna al gigante di Palo Alto studiata dal WSJ. Un altro gruppo affermava d’essere stato creato da fan di Donald Trump, ed era invece gestito da “albanesi finanziariamente motivati”: ogni giorno forniva milioni di visualizzazioni a fake news e altro contenuto provocatorio e divisivo.

A quanto riporta il Wall Street Journal, dunque, i dirigenti di Facebook sapevano da mesi che gli algoritmi creati per favorire la crescita dei gruppi rappresentavano anche, paradossalmente, un enorme ostacolo alla creazione di communities digitali sane, e l’azienda non ha mai trovato la soluzione giusta per contenere l’escalation della violenza e garantire contestualmente il diritto alla libertà di parola.

Nelle settimane antecedenti le elezioni USA, Facebook chiuse molti dei gruppi più importanti e intraprese alcune azioni per limitare la crescita di altri gruppi analoghi, da quanto si evince dai documenti visionati, pensando tuttavia che le restrizioni sarebbero state solo temporanee: l’applicazione delle misure di contenimento della violenza ben presto cessò, a quanto affermano persone vicine ai ricercatori e all’azienda.

Dopo le elezioni, tuttavia, alcuni dei gruppi più grandi – molti dei quali già indicati nella presentazione di agosto – iniziarono a mettere in dubbio i risultati delle urne e iniziarono a organizzare le proteste che abbiamo visto culminare nell’assedio al Campidoglio del 6 gennaio. Dopo gli eventi di Washington, Facebook ha chiuso altri gruppi e ha modificato gli algoritmi così da non consigliare più né gruppi “civici” né gruppi che parlano di salute e sanità, a quanto riferisce Guy Rosen, VP of Integrity (un ruolo che vigila sulla sicurezza di utenti e conversazioni sulla piattaforma). Contestualmente, Facebook ha anche intrapreso le misure necessarie a disabilitare determinate funzioni che, secondo i ricercatori, faciliterebbero la diffusione di gruppi tendenziosi e polarizzanti.

Eppure, è dal 2016 che in Facebook circolano documenti che dimostrano quanto i contenuti estremisti e polarizzanti siano la norma nei gruppi politici o di azione civile, portando ad esempio un gruppo politico tedesco: il 64% di tutti gli estremisti che ne avevano chiesto l’iscrizione avevano trovato il gruppo grazie all’algoritmo che lo indicava come di possibile interesse.

La ricerca interna presentata ad agosto 2020 rivelava inoltre che i gruppi statunitensi di maggior successo in ambito politico erano gestiti da amministratori che tolleravano e alimentavano persino l’hate speech, molestie e pesanti appelli alla violenza. Non solo, molti dei gruppi erano contrassegnati o come privati o addirittura come segreti, e nessuno al di fuori di Facebook sarebbe stato in grado di conoscerne la portata. Inoltre, molti dei gruppi più popolari non erano neanche gestiti da cittadini statunitensi.

Ecco perché, a seguito di questi ripetuti (e inascoltati) segnali d’allarme, Facebook ha finalmente deciso di cambiare i propri algoritmi e togliere il focus ai gruppi, disabilitando determinate funzioni e dando agli amministratori di gruppo molte più responsabilità in merito alla revisione e al controllo dei contenuti.

Sarà veramente determinato Zuckerberg a cambiare la propria politica sui contenuti divisivi e polarizzanti che tanta fortuna hanno portato alla piattaforma di Menlo Park o saranno solo specchietti per le allodole? Solo il tempo ce lo dirà.