ComunicazioneLe iniziative di Facebook contro le fake news: se la lotta alle bufale è social

Le iniziative di Facebook contro le fake news: se la lotta alle bufale è social

Quali sono le principali iniziative di Facebook contro le fake news? E che risultati concreti hanno avuto? Un approfondimento

Le iniziative di Facebook contro le fake news: se la lotta alle bufale è social

«C’è troppo sensazionalismo, cattiva informazione e polarizzazione nel mondo di oggi. I social media fanno sì che la gente condivida informazioni di più e più velocemente di quanto facesse in passato e così, se non affronteremo questi problemi, finiremo per amplificarli». Sono queste le parole con cui, a gennaio 2018, Mark Zuckerberg ha presentato l’ennesima tra le iniziative di Facebook contro le fake news.

Bufale, post-verità, fatti alternativi non sono infatti solo termini alla moda che hanno dominato il discorso pubblico nell’ultimo anno e mezzo. Le preoccupazioni di Menlo Park, e di chiunque si occupi oggi d’informazione, sembrano essere supportate da dati sulla diffusione delle fake news come quelli del ‘Pew Research Center’: un intervistato su quattro avrebbe dichiarato, infatti, di aver condiviso consapevolmente, almeno una volta, una notizia falsa e i due terzi del campione si è detto «confuso» da notizie come queste che tendono a creare caos su fatti di cronaca, attualità e non solo.

Dalle bufale in medicina a quelle che avrebbero inquinato la campagna per le presidenziali americane del 2016 e che più in generale rischiano di rendere ostile il clima elettorale nei paesi chiamati alle urne, non stupisce insomma il proliferare di iniziative contro le fake news. Non ci sono solo i governi che provano a tutelarsi e a tutelare i loro cittadini con misure ad hoc: anche i grandi del digitale hanno trovato nel tempo formule diverse con cui affrontare il dilagare di notizie manipolate, non verificate, false, palesemente costruite ad hoc.

Le iniziative di Facebook contro le fake news, così, hanno puntato fin da subito su alcuni elementi essenziali.

Parola d’ordine: formazione. La spinta antibufale di Facebook parte dalla conoscenza

Imprescindibile, per esempio, è la formazione. Il Facebook Journalism Project fu uno dei primi moduli pensati da casa Zuckerberg per aiutare i professionisti dell’informazione (e non solo: il corso è aperto, infatti, a qualsiasi utente, ndr) a rapportarsi con un mare (sempre più) magnum di informazioni e fonti non tutte allo stesso modo verificate e verificabili. Per tornare alle parole del fondatore di Facebook, del resto, la fruizione di contenuti digitali ha completamente rivoluzionato il rapporto di lettori e giornalisti con le notizie e un certo overload, un sorta di sovraccarico di informazioni, ha portato alla diffusione incontrollata di notizie manipolate ad arte, che siano quelle accusate di aver fatto arrivare Donald Trump al soglio presidenziale o quella della prima parlamentare musulmana australiana senza velo in una giornata del ricordo, solo per fare degli esempi recenti.

I primi a dover imparare a gestire simile complessità per offrire davvero un servizio pubblico sono, allora, giornalisti e chi lavora nel campo dell’informazione. Più in generale però una maggiore, migliore e più diffusa media literacy sembrerebbe essere auspicabile. Per questo, a gennaio 2018 Facebook Italia ha cominciato a sostenere l’AGCOM nelle sue iniziative contro la disinformazione, iniziative che comprendono per esempio l’istituzione di un tavolo tecnico a garanzia del pluralismo e della correttezza delle informazioni sulle piattaforme digitali. L’apporto di casa Zuckerberg sembra essere stato, innanzitutto, un decalogo di regole base che possono aiutare gli utenti a capire se quella che hanno davanti è una notizia vera e verificata o una bufala: mai fidarsi dei titoli – e, verrebbe da aggiungere, mai condividere una notizia quando se ne è letto solamente il titolo –; fare attenzione alla URL, al nome della fonte, alla formattazione e alle eventuali immagini associate alla notizia; controllare le date; cercare più fonti che riportino gli stessi fatti e tenere conto che, in alcuni casi, si potrebbe essere davanti a uno scherzo o a una notizia intenzionalmente falsa sono tra i precetti di Facebook per una community che sia la prima alleata del fact-checking.

Se è la community che va a caccia di fake news e testate affidabili

Il social, del resto, è ancora uno dei più popolosi e non sorprende che il team di Facebook abbia cercato di approfittare dei suoi oltre due miliardi di utenti per dare la caccia alle fake news. Chiedere di segnalare le notizie false, non verificate, di dubbia provenienza è stata proprio una delle prime iniziative contro le bufale annunciate da Zuckerberg. In una prima versione di questo sistema (dicembre 2016, ndr), agli utenti era chiesto esclusivamente di segnalare tramite un apposito bottone i link e le notizie in cui si imbattevano nelle loro bacheche e sulla cui veridicità avevano dei dubbi, per far sì che queste venissero prese in carico da dei fact-checker professionisti prima di eventualmente essere bollate come “contestate”.

Sono le ultime iniziative di Facebook contro le fake news, però, a sfruttare di più – e con non poche polemiche – lo sciame intelligente degli iscritti al social. A pochi giorni dall’annuncio di un nuovo algoritmo Facebook che dovrebbe favorire soprattutto l’interazione tra gli amici, infatti, a gennaio 2018 Zuckerberg ha annunciato la sua nuova strategia contro le fake news.

Continuing our focus for 2018 to make sure the time we all spend on Facebook is time well spent… Last week I…

Pubblicato da Mark Zuckerberg su Venerdì 19 gennaio 2018

Saranno gli utenti a essere chiamati a esprimersi sulla «affidabilità» e sulla «oggettività» delle singole testate, in modo da poter ottenere qualcosa di simile a un ranking. Come concretamente dovrà avvenire l’intero processo non è (ancora) dato saperlo. Da Facebook si sono limitati a spiegare che useranno i sondaggi – quelli già utilizzati, per esempio, per valutare l’impatto delle Facebook Ads – per accertarsi prima della «familiarità» che hanno gli utenti con il mondo dell’informazione e, quindi, per chiedere solo a quelli che ne avranno dimostrata abbastanza un giudizio di merito sul lavoro delle singole testate. Secondo delle indiscrezioni che ‘BuzzFeed’ ha rivelato nell’articolo “This is Facebook’s News Survey”, le due domande che Facebook porrà ai suoi utenti dovrebbero essere “Conosci questi siti web?” e “Quanto ti fidi di ognuno di questi domini?”, con un set di risposte chiuso e limitato. Nonostante alcune precisazioni di Facebook – che su Twitter, nella persona di Adam Mosseri, Head of News Feed, ha chiarito che i dati saranno aggregati con altri indicatori e, comunque, nel solo caso di publisher e testate per cui non esistano parametri più certi – si tratta di due domande certo riduttive rispetto alla complessità del problema in questione.

Le principali critiche alle iniziative di Facebook contro le fake news

Come farà, per esempio, Facebook ad accertarsi che il campione di utenti preso in considerazione per valutare l’attendibilità delle testate e dei media attivi sul social sia davvero rappresentativo? È quello che si chiede ‘Forbes’ in un articolo in cui le strategie antibufale di Facebook vengono paragonate quasi a un regime orwelliano di sorveglianza. In questo caso, le critiche vertono soprattutto sull’incapacità della popolazione di Facebook di rappresentare davvero la popolazione globale con i suoi interessi e le sue rivendicazioni specifiche. Basti pensare alle censure che il social subisce in paesi come la Cina, del resto, per sfatarne il mito di baluardo della democrazia e per suscitare dei (legittimi) dubbi su un filtraggio, a monte, delle informazioni che avvenga per opera degli iscritti alla piattaforma.

Per approfondimenti su: "social media tra democrazia e consura"
Censurarsi pur di esserci? Il possibile ritorno di Facebook in Cina

Anche questa misura contro il dilagare delle fake news, in altre parole, è stata interpretata da qualcuno come la fine di un idillio tra Facebook e gli editori. Nonostante per molti utenti Facebook è la principale fonte d’informazione, quando non l’unica, Zuckerberg ha sempre stentato del resto a riconoscere la sua creatura come una media company, atteggiamento che si è tradotto concretamente in una difficoltà endemica sul tema della responsabilità rispetto ai contenuti. C’è chi, più volte, ha lamentato un certo lassismo da parte del team di Facebook che, per restare in termini di lotta alle fake news per esempio, avrebbe delegato ai singoli editori le scelte più strategiche su una questione più che rilevante per il dibattito pubblico e politico. Nello stesso post con cui è stata annunciata l’ultima misura sul tema, del resto, Zuckerberg si è detto a disagio con un compito come fare un ranking delle testate più affidabili. E a fargli eco è arrivato il commento del Product Manager Samidh Chakrabarti, in un post sulle domande difficili quanto a social media e democrazia, secondo cui Facebook non può e, soprattutto, non vuole allo stato attuale trasformarsi in «un arbitro della verità».

Nessuna delle iniziative di Facebook contro le fake news, comunque, andrebbe considerata isolatamente e, per tornare ai loro elementi distintivi, non si possono di certo dimenticare le partnership che in questi anni sono state chiuse da Menlo Park con soggetti tra i più accreditati nel fact-checking come la First Draft Coalition, Snopes, Factcheck.org, ecc. A loro il compito di esprimersi e di procedere realmente alla verifica delle notizie segnalate dagli utenti, di collaborare alla formazione, ecc.

Dal design ai paratesti, passando per l’algoritmo: gli effetti concreti delle iniziative di Facebook contro le fake news

Storicamente, comunque, gli sviluppatori di Facebook hanno provato a sfruttare design del NewsFeed, paratesti, modalità d’interazione per limitare la condivisione di bufale e notizie non verificate. Grazie a una delle prime misure antibufale di casa Zuckerberg, per esempio, l’utente avrebbe dovuto ricevere una notifica ad hoc ogni volta che provava a condividere una notizia che era già stata segnalata come disputed”. Più di recente è stata data importanza soprattutto al contesto di fruizione delle informazioni. C’è una funzione che permette, per esempio, di visualizzare gli articoli correlati e di avere a disposizione informazioni aggiuntive sui link che si trovano sul proprio feed Facebook: grazie alla possibilità di cliccare su un menu a scomparsa di ogni notizia condivisa tramite link, si dovrebbero ricevere cioè una serie di highlights aggiuntivi rispetto all’autore di quella notizia, per esempio, o ad argomenti correlati, in trending topics e su cui si stanno basando le principali discussioni in materia, ecc. L’intento sembra essere quello di facilitare chi si informa – e lo fa soprattutto o esclusivamente su Facebook – a valutare se una notizia è affidabile, se i dati riportati sono verificati, se l’autore della notizia o la testata che la riporta rappresentano fonti attendibili, ecc.

Article Context

Pubblicato da Facebook su Mercoledì 4 ottobre 2017

Ancora nel tentativo di fare del tempo speso su Facebook «un tempo ben speso» –  come scrive Zuckerberg – e di migliorare l’esperienza utente partendo dal design, di recente è stata disabilitata anche l’opzione che permetteva a chi gestiva una pagina di modificare, prima di condividerle, le anteprime dei link su Facebook. I paratesti – titolo, snippet, immagine in evidenza – hanno un ruolo fondamentale infatti quando si tratta di attrarre visite e lettori: in molte occasioni, così, soprattutto i media outlet che vivono di clickbait li hanno manipolati ad arte in modo da rendere più accattivanti, credibili o semplicemente adeguate agli standard di comunità le loro notizie.

Più volte, poi, da Facebook hanno annunciato di aver cambiato l’algoritmo per fare in modo che le presunte fake news venissero visualizzate con minore probabilità dagli utenti. Oggi, con un algoritmo che premia le interazioni sociali «significative», il rischio e l’opportunità è che le proprie cerchie siano i principali garanti della qualità dell’informazione che si consuma. Effetto che dovrebbe sommarsi a un più concreto calo di un punto percentuale del numero di notizie che l’utente medio visualizza ogni giorno sulla propria bacheca, un primo (timido) passo verso la soluzione del problema dell’overload informativo.

A cosa stanno portando, comunque, sforzi di questo tipo? A risultati concreti. Appositamente interpellato sull’efficacia degli strumenti contro le fake news di Facebook, il team di Zuckerberg avrebbe rivelato infatti a ‘BuzzFeed’ che da quando è stata introdotta la possibilità di taggare come fake una notizia o un link è crollata di oltre l’80% la probabilità che una notizia palesemente falsa o manipolata venisse condivisa. La sfida ancora da vincere, invece, sarebbe la velocità del processo: al momento sarebbero necessari, infatti, almeno tre giorni perché una notizia venga riconosciuta come fake news e penalizzata per questo, ma per rendere Facebook un posto migliore anche per quanto riguarda l’informazione ciò dovrebbe avvenire molto più velocemente.


Virginia Dara
A cura di: Virginia Dara Autore Inside Marketing
© RIPRODUZIONE RISERVATA E' vietata la ripubblicazione integrale dei contenuti

Corsi Formazione

Tutti i corsi
Le vostre Opinioni