La disinformazione è tra le questioni più pressanti del nostro tempo. A questo tema OBCT ha dedicato un nuovo dossier di approfondimento partendo dai materiali presenti sul Resource Centre on Press and Media Freedom in Europe
Indice:
- “Fake news”: vecchio termine, nuove implicazioni
- Scegliere il termine corretto
- Produrre disinformazione: un processo con diversi livelli
- Le responsabilità delle compagnie IT
- L'estensione della disinformazione in Europa
- Azioni intraprese contro la disinformazione
- La risposta dell'Unione europea
- Il processo multi-stakeholder della Commissione europea
- Altri rimedi alla disinformazione
“Fake news”: vecchio termine, nuove implicazioni
Il termine “fake news” non è affatto nuovo. In un’illustrazione del 1894 di Frederick Burr Opper si vede un reporter che corre alla scrivania portando “fake news”.
Tuttavia, i fenomeni “fake news” e disinformazione sono ancora più antichi: una breve storia ad opera dell’International Center for Journalists cita, ad esempio, la campagna di propaganda di Ottaviano contro Marco Antonio.
Nel tempo gli sviluppi tecnologici, come l’invenzione della stampa, hanno facilitato e velocizzato la diffusione delle informazioni, compresa la disinformazione. Nel 1835, il New York Sun pubblicò 6 articoli sulla scoperta della vita sulla Luna, in quella che è ora ricordata come “la grande bufala della Luna”. Nel 1898, la corazzata USS Maine esplose per motivi ignoti, ma i giornali statunitensi puntarono il dito verso la Spagna, contribuendo all’avvio di una guerra ispano-americana.
Un più recente report del Consiglio d’Europa sottolinea che, grazie a Internet e social media, chiunque può creare e distribuire contenuti in tempo reale.
Il termine “fake news” si è diffuso esponenzialmente durante le presidenziali statunitensi del 2016, usato sia dai liberali contro i media di destra che dall'allora candidato Donald Trump contro le voci critiche come la CNN.
I pericoli sono svariati. Nel 2016, un uomo ha aperto il fuoco in un ristorante di Washington D.C., alla ricerca di un seminterrato dove pensava fossero tenuti prigionieri dei bambini: si trattava di fake news/teoria della cospirazione, nota come Pizzagate . La disinformazione in campo medico costituisce una minaccia per la salute; le teorie della cospirazione sul clima rappresentano un pericolo per l’ambiente. La disinformazione può continuare a formare le opinioni anche quando smascherata, e di conseguenza ha “effetti reali e negativi sul consumo di notizie da parte del pubblico”.
Secondo uno studio di David N. Rapp e Nikita A. Salovich, l’esposizione a informazioni inaccurate può creare confusione anche quando conoscenze ed esperienze pregresse dovrebbero proteggere chi legge, e le persone mostrano di fare affidamento su informazioni inaccurate anche dopo aver letto narrativa o fatto conversazione con persone di cui non hanno particolare motivo di fidarsi. Più in generale, le “fake news” inquinano l’ecosistema dell’informazione: l’informazione è “tanto vitale per il sano funzionamento delle comunità quanto aria pulita, strade sicure, buone scuole e salute pubblica”. L’informazione è la materia prima della buona cittadinanza.
La sfiducia potrebbe essere un effetto della disinformazione ordinaria, ma alcune campagne di disinformazione mirano esplicitamente non a convincere qualcuno di qualcosa, ma a diffondere incertezza, sfiducia e confusione. Come spiega il report Lexicon of Lies, queste campagne sono talvolta definite “gaslighting”, usando un termine derivato dalla psicologia.
Tuttavia, è importante notare che la sfiducia è non solo una conseguenza, ma anche una causa della disinformazione: le persone si rivolgono alla disinformazione perché non si fidano dei media mainstream. Questo aumenta ulteriormente la sfiducia verso i media, che diventa un fenomeno che si auto-perpetua.
Chi non si fida dei media ha meno probabilità di trovare informazioni accurate. Il suo voto si baserà sull’ideologia piuttosto che sui fatti. I media non sono in grado di svolgere la propria funzione di “cani da guardia” e questo, sostiene la Commissione digitale, cultura, media e sport della Camera dei Comuni del Regno Unito nel suo Interim Report, rappresenta una minaccia per la democrazia.
Bisogna essere consapevoli che le accuse di “fake news” possono diventare un’arma nelle mani di regimi autoritari: un report di Article 19 sottolinea che molti leader le usano come pretesto per attaccare i media e, secondo la Commissione per la protezione dei giornalisti, l'11% dei 251 giornalisti incarcerati nel mondo per motivi legati al proprio lavoro sono stati accusati di diffondere notizie false.
Scegliere il termine corretto
Il termine “Fake news” è stato usato alternativamente per fare riferimento ad ogni sorta di contenuto problematico, falso, fuorviante o parziale.
Un articolo del 2017 di Tandoc et al. ha esaminato l’uso del termine “fake news” in 34 articoli accademici fra il 2003 e il 2017, mostrando che è stato utilizzato per indicare 6 differenti tipi di contenuto: satira, parodia, notizie inventate, immagini o video manipolati o indebitamente ottenuti, materiale pubblicitario travestito da notizia e propaganda.
Il termine “fake news” è stato quindi criticato per la mancanza di “rigore nella definizione” e molti hanno scelto di non usarlo se non tra virgolette. Un manuale UNESCO l’ha perfino messo in copertina barrandolo.
Secondo Johan Farkas e Jannick Schou, “fake news” è diventato un “significante vuoto” con almeno tre momenti: critica del capitalismo digitale, critica della politica e dei media di destra e critica del giornalismo liberale e mainstream. Viene quindi usato nelle battaglie ideologiche per imporre uno specifico punto di vista sul mondo.
Ci sono stati molti tentativi di trovare alternative al termine e sistematizzarne il quadro concettuale.
Mark Verstraete, Derek E. Bambauer e Jane R. Bambauer distinguono diversi tipi di “fake news” in base alla motivazione e all’intenzione di ingannare chi legge:
- satira: contenuto intenzionalmente falso, motivato dal guadagno, non mirato a ingannare chi legge;
- bufala: contenuto intenzionalmente falso, motivato dal guadagno, mirato a ingannare chi legge;
- propaganda: contenuto intenzionalmente falso o parziale, motivato dal tentativo di promuovere una causa o prospettiva politica, mirato a ingannare chi legge;
- trolling: contenuto falso o parziale, motivato dal tentativo di fare umorismo (“lulz”), mirato a ingannare chi legge.
Claire Wardle distingue 7 tipi di “fake news” sulla base della motivazione dei creatori e del meccanismo di disseminazione: satira o parodia, contenuto fuorviante, "imposter content", contenuto inventato, falsa connessione, falso contesto e contenuto manipolato.
Claire Wardle e Hossein Derakhshan, nel loro report per il Consiglio d’Europa, usano il concetto di “information disorder” e, in base alla motivazione di chi lo produce, distinguono fra:
- mis-information: informazione falsa, condivisa senza intento di causare danno;
- dis-information: informazione falsa, condivisa con l’intento di causare danno;
- mal-information: informazione autentica, condivisa con l’intento di causare danno.
Produrre disinformazione: un processo con diversi livelli
La disinformazione può essere prodotta in una varietà di formati, tra cui la distorsione delle immagini e i deep-fake, ovvero audio e video manipolati in modo da sembrare persone vere grazie alle tecniche di intelligenza artificiale (AI). Come evidenziato da un recente report per il governo del Regno unito, questi esempi non faranno che diventare più complessi e difficili da identificare con il progredire dei software.
Indipendentemente dal mezzo, Wardle e Derakhshan identificano tre elementi (agente, messaggio, interprete) e tre fasi (creazione, produzione, distribuzione) di “information disorder”, sottolineando l’importanza di considerare anche le seconde.
Gli agenti possono essere attori ufficiali (servizi di intelligence, partiti politici, media, agenzie di pubbliche relazioni o lobby) o non ufficiali (gruppi di cittadini) con motivazioni politiche o economiche, ma anche sociali (il desiderio di essere connessi con un certo gruppo online od offline) o psicologiche.
L’agente che produce il contenuto è spesso sostanzialmente diverso da quello che lo crea e da quelli che lo distribuiscono e riproducono. Come sottolineato dai due ricercatori, il messaggio, una volta creato, può essere riprodotto e distribuito all’infinito da molti agenti diversi, tutti con diverse motivazioni. Ad esempio, un post sui social media condiviso da diverse comunità può essere ripreso e riprodotto dai media mainstream, e così diffondersi ulteriormente in altre comunità.
- Viralità
L’emergenza di nuovi modelli di business e la diminuzione dei fondi per i media di qualità hanno aperto la strada alla commercializzazione e sensazionalizzazione delle notizie, terreno fertile per la disinformazione. Poiché le notizie-shock attirano maggiore attenzione, si diffondono più rapidamente sui social media e diventano “virali”. Secondo una ricerca condotta da Craig Silverman sugli ultimi tre mesi della campagna presidenziale statunitense, le principali “fake news” elettorali hanno generato più interazioni totali su Facebook delle principali news elettorali uscite su 19 grandi media messe insieme. La notizia sul sostegno di Papa Francesco a Donald Trump per la presidenza, inizialmente pubblicata dal sito WTOE5News.com (che non esiste più), ha avuto il maggior numero di interazioni su Facebook (oltre 960.000 condivisioni, reazioni e commenti), mentre la principale storia mainstream solo 849.000.
- Clickbait
Come spiega il report Why Does Junk News Spread so Quickly, il sistema pubblicitario di compagnie come Google e Facebook permette al creatore di una pagina web di ottenere profitti ogni volta che annuncio viene visualizzato o cliccato. Di conseguenza, se una storia porta traffico ad un sito o ha molte condivisioni sui social media, chi pubblica gli annunci guadagna ogni volta che l’annuncio ha un click.
Tuttavia, questo modello di business può diventare particolarmente pericoloso quando diffonde contenuti falsi e dannosi. Il caso dei teenager macedoni che hanno visto nei siti di fake news un modo per fare soldi nel periodo delle elezioni USA del 2016 è un esempio eloquente. BuzzFeed ha identificato oltre 100 siti pro-Trump operati dalla città macedone di Veles, con guadagni fino a “5.000 dollari al mese, o persino 3.000 dollari al giorno”.
- Trolling
L’inchiesta Russiagate, mirata a verificare possibili influenze russe nelle presidenziali USA 2016, ha fatto luce su altri elementi e fasi di information disorder. Come riportato dal New York Times, l’Internet Research Agency (IRA), nota anche come “fabbrica russa dei troll”, inviava alle proprie reclute un pagamento mensile di 1.400 dollari. Un troll è una persona reale che “avvia intenzionalmente un conflitto online od offende altri utenti per distrarre e creare divisioni postando contenuti provocatori od off-topic in una comunità online o social network. Il loro scopo è provocare una risposta emotiva e far deragliare le discussioni”, spiega un’analisi del Digital Forensic Research Lab dell’Atlantic Council.
L’oligarca russo Yevgeny Prigozhin, che controllava due compagnie finanziatrici dell’IRA (insieme ad altre 12 persone e tre organizzazioni russe), è stato accusato dal Dipartimento di Stato USA di aver partecipato ad un’ampia iniziativa per interferire nelle elezioni 2016 e sostenere la campagna di Trump. Nel giugno 2018, la House Intelligence Committee ha rilasciato una lista di 3.841 profili Twitter associati alle attività della “fabbrica dei troll” russa. In un recente working paper, D.L. Linvill e P.L. Warren hanno analizzato 1.875.029 tweet associati con 1.311 profili IRA. I ricercatori hanno identificato alcune categorie di account Twitter, fra cui i "Right Trolls" (che diffondono messaggi populisti nativisti e di destra, spesso mandando messaggi divisivi sui Repubblicani mainstream e moderati), i "Left Trolls" (che mandano messaggi di sinistra e discutono i temi dell’identità di genere, sessuale, religiosa e razziale attaccando i politici democratici mainstream) e "Fearmongers" (responsabili di una bufala su tacchini avvelenati in occasione del Giorno del ringraziamento 2015).
- Meccanismi cognitivi e psicologici degli utenti
La diffusione di tali contenuti e voci non sarebbe stata possibile senza lo sfruttamento dei meccanismi psicologici e cognitivi degli utenti dei social media che interpretano il messaggio. Come spiega Craig Silverman in Lies damned lies and viral content, le persone sono frustrate dall’incertezza e di conseguenza tendono a credere piuttosto che mettere in dubbio. Inoltre, se la voce riveste un interesse personale per noi e crediamo che sia vera, è più probabile che la diffonderemo. Recenti studi confermano che la familiarità è un potente fattore di persuasione, mentre la ripetizione è una delle tecniche più efficaci per portare le persone ad accettare contenuti manipolati. Un elemento che rafforza ulteriormente questi meccanismi è l’auto-conferma, un’altra scorciatoia mentale impiegata dalle persone per valutare la credibilità di una fonte o messaggio.
Come osservato da Wardle e Derakhshan nel report Information disorder, i meccanismi di funzionamento dei social network rendono difficile per le persone valutare la credibilità di qualsiasi messaggio: primo, perché i post appaiono quasi identici sulle piattaforme; secondo, perché i social media sono progettati per focalizzarsi sulla storia piuttosto che sulla fonte; terzo, perché gli utenti dei social media tendono a fare affidamento sugli endorsement e le raccomandazioni sociali dei propri contatti.
- Bot
Questi meccanismi, e in particolare la ripetizione, sono sfruttati dai bot. Come evidenziato in #TrollTracker: Bots, Botnets, and Trolls, i bot sono profili social operati da algoritmi che reagiscono automaticamente ai post manipolatori, creando attorno al contenuto un falso senso di popolarità. Questo può facilmente generare conformità fra gli agenti umani che diffondono ulteriormente i messaggi dei bot, in particolare quando vengono taggate persone influenti.
- Filter Bubbles ("bolle filtro")
Un altro elemento importante è la “bolla filtro”. Il termine è stato coniato dall’attivista Internet Eli Pariser per indicare un’acquisizione selettiva di informazioni da parte degli algoritmi dei siti web, compresi motori di ricerca e post sui social media. L’espressione è strettamente legata alla personalizzazione di tali informazioni attraverso l’identificazione dei comportamenti “click” e “like”, localizzazione, cronologia di ricerca ecc.. Questo meccanismo porta alla creazione di “bolle” in cui gli utenti Internet ricevono solo informazioni in linea con il proprio profilo, mentre altre fonti e informazioni vengono filtrate. Diversi studi hanno evidenziato i pericoli di tale acquisizione selettiva di informazioni, che rafforza la polarizzazione della società creando echo chambers (camere dell'eco).
Questo è quanto emerso, ad esempio, dalla ricerca Demos 2017 Talking to Ourselves? Political Debate Online and the Echo Chamber Effect. Lo studio ha analizzato i dati Twitter di 2.000 utenti che avevano espresso apertamente il proprio sostegno per uno di quattro partiti politici nel Regno unito, trovando comportamenti simili tra i sostenitori di partiti diversi. Il report conclude confermando l’esistenza di un effetto “camera eco” sui social media, e osservando che tale effetto diventa più pronunciato in proporzione alla distanza dell’utente dal mainstream. Un altro studio ha investigato le dinamiche di camera eco su Facebook. L’analisi condotta da Walter Quattrociocchi e altri ricercatori ha esplorato le dinamiche con cui gli utenti Facebook consumano le notizie di scienza e le teorie della cospirazione in ambito scientifico. Esaminando i post di 1,2 milioni di utenti, i ricercatori hanno rilevato che i due tipi di notizia “hanno modalità di consumo analoghe e l’esposizione selettiva ai contenuti è il fattore primario della diffusione dei contenuti e genera camere eco, ciascuna con le proprie dinamiche a cascata”.
Altri studi sono giunti a conclusioni differenti sulle bolle filtro e le camere dell'eco. Una recente ricerca accademica ha usato un campione significativo a livello nazionale degli utenti Internet adulti nel Regno Unito. Lo studio ha rilevato che gli utenti interessati alla politica e quelli con diete media variegate tendono ad evitare le camere eco. Un altro studio di Richard Fletcher e Rasmus Kleis Nielsen ha esaminato l’esposizione accidentale alle notizie sui social media (Facebook, YouTube, Twitter) in quattro paesi (Italia, Australia, UK e USA). Comparando il numero di fonti di notizie online usato dagli utenti accidentali di social media (utenti che non vedono i social media come fonte di notizie) rispetto alle persone che non usano i social media, la ricerca ha rilevato che gli utenti accidentali utilizzano molte più fonti online dei non-utenti, specialmente se giovani e con basso interesse per le notizie.
Un sondaggio su 14.000 persone in 7 paesi ha rilevato che “le persone interessate e coinvolte in politica online hanno maggiore probabilità di verificare le informazioni dubbie trovate su Internet e social media, anche tramite ricerche online di ulteriori fonti, superando così le bolle filtro e le camere dell'eco”. Il Digital News Report 2017, pubblicato dal Reuters Institute for the Study of Journalism, giunge ad una conclusione simile, affermando che “camere dell'eco e bolle filtro sono sicuramente una realtà per alcune persone, ma in media gli utenti di social media, aggregatori e motori di ricerca sperimentano maggiore varietà dei non-utenti”.
Le responsabilità delle compagnie IT
Un report del 2017 del Tow Center for Digital Journalism evidenzia come l’avvento delle piattaforme social e delle compagnie IT abbia portato piattaforme e organizzazioni come Facebook, Snapchat, Google, Twitter e Whatsapp a offuscare rapidamente gli editori tradizionali. Evolutesi oltre il ruolo di distributori, queste compagnie controllano ora quello che il pubblico vede e persino il format e il tipo di giornalismo destinato ad avere successo. D’altra parte, “le case editrici hanno rinunciato in modo crescente alle proprie funzioni tradizionali e la stampa non è più l’attività principale per alcune organizzazioni giornalistiche”, si legge nel report.
Una larga fascia di pubblico in tutto il mondo trova notizie e informazioni su social media e piattaforme di messaggistica. Facebook dichiara in media 1,49 miliardi di utenti attivi al giorno e 2,27 miliardi al mese per settembre 2018. Secondo Reuters , a dicembre 2017 370 milioni di questi utenti si trovavano in Europa. Il Reuters Institute Digital News Report 2018 ha intervistato un campione di 24.735 persone in “mercati selezionati” (UK, USA, Germania, Francia, Spagna, Italia, Irlanda, Danimarca, Finlandia, Giappone, Australia e Brasile): il 65% aveva utilizzato Facebook “per qualsiasi scopo” nella settimana precedente il sondaggio, il 36% per le notizie.
Facebook è governato dall’algoritmo News Feed, che è stato modificato diverse volte per dare maggiore priorità ai video, ridurre la priorità dei clickbait, mettendo in primo piano la famiglia, gli amici e così via. La piattaforma ha recentemente alterato l’algoritmo in modo da penalizzare i contenuti identificati come disinformazione. Facebook è molto più grande di Twitter e contiene ancora molte “fake news”: molte più di Twitter, come puntualizza NiemanLab .
Nel 2014, Facebook ha lanciato Trending Topics, una sezione simile a Twitter Trends. Nel 2016, Gizmodo ha citato ex dipendenti Facebook che sostenevano che la sezione fosse curata in modo da sopprimere le fonti conservatrici. Mesi dopo, Facebook ha cambiato il meccanismo della sezione rendendolo completamente algoritmico, per poi chiuderla nel 2018 dopo le accuse di diffondere “fake news”.
Secondo un recente working paper di ricercatori delle università di Stanford e New York, il tentativo della piattaforma di liberare i feed da “fake news” e disinformazione sembra funzionare. Il problema, tuttavia, è che gli algoritmi dei social media non sono trasparenti: questo significa che sappiamo solo quanto emerge dalle dichiarazioni dei dirigenti e dai tentativi di ingegneria inversa come quello di Fabio Chiusi e Claudio Agosti.
A novembre 2015, Google ha introdotto una nuova policy che escludeva AdSense dai siti web che non dichiarano in modo trasparente i loro proprietari e ingannano gli utenti, anche impersonando organizzazioni giornalistiche. Inoltre, altre organizzazioni IT stanno esplorando modi in cui i contenuti su Internet possono essere verificati, certificati e valutati in base a definizioni concordate. I marchi possono scegliere di bloccare la pubblicità su alcuni siti tramite liste nere, e campagne come Sleeping Giants li spingono a fare esattamente questo. D’altra parte, il report dell’organo indipendente High level Group on fake news and online disinformation (HLEG) osserva che molte iniziative riguardano solo pochi paesi, lasciando milioni di utenti più esposti alla disinformazione. Inoltre, a causa della scarsità di dati accessibili al pubblico, è spesso difficile per le terze parti indipendenti (fact-checker, news media, accademici e altri) valutare l’efficienza di queste risposte.
L'estensione della disinformazione in Europa
La maggior parte degli studi e dati esistenti sulle “fake news” fa riferimento agli Stati Uniti, in particolare alle presidenziali del 2016. Tuttavia, ci sono state preoccupazioni in diversi altri paesi, compresi quelli europei, in particolare per il referendum sulla Brexit nel 2016 e altri appuntamenti elettorali.
Nel Regno Unito, la Commissione parlamentare per il digitale, la cultura, i media e lo sport sta portando avanti un’inchiesta su disinformazione e “fake news”. Un interim report pubblicato a luglio 2018 discute il ruolo della Russia a sostegno della campagna Brexit, usando le “fake news” per “militarizzare l’informazione” e seminare discordia nell’Occidente.
I ricercatori Andrew Chadwick, Cristian Vaccari e Ben O’Loughlin hanno analizzato i risultati di un sondaggio condotto su 1.313 persone nel Regno Unito, evidenziando che durante la campagna elettorale 2017 il 67,7% degli intervistati ha ammesso di aver condiviso notizie esagerate o inventate. Inoltre, gli studiosi hanno trovato una correlazione positiva e significativa fra la condivisione di articoli di tabloid e notizie esagerate o inventate: secondo gli autori, gli intervistati che condividono un articolo di tabloid al giorno hanno il 72% di probabilità di condividere notizie disfunzionali. Lo studio mostra anche che “più gli utenti interagiscono con altri che condividono le loro posizioni online, meno probabilità hanno di essere contestati per comportamento disfunzionale”, ovvero che qualcuno contesti i fatti esposti nell’articolo o affermi che sono esagerati.
Una fact sheet del Reuters Institute for the Study of Journalism, basata su ricerche condotte in Francia e in Italia, mostra che le cosiddette fake news hanno una diffusione limitata sul web: la maggior parte raggiunge meno dell’1% della popolazione online in entrambi i paesi, mentre Le Figaro in Francia aveva una diffusione mensile media del 22,3%, La Repubblica 50,9%. Inoltre, gli utenti passano molto più tempo sui siti di news mainstream che su quelli di notizie false: in media 178 milioni di minuti al mese per Le Monde, e 443 per La Repubblica, mentre i più popolari siti di notizie false si fermano a 10 milioni di minuti in Francia e 7,5 in Italia.
Tuttavia, la fact sheet mostra anche che in Francia “una manciata di fonti di notizie false (…) ha generato un numero di interazioni maggiore o pari a quello dei media consolidati”, ma sono un’eccezione, poiché la maggior parte ha generato meno interazioni. In Italia, 8 siti di notizie false hanno generato più interazioni del sito di Rainews (che però non è molto usato) e sono molto indietro rispetto a La Repubblica e Il Corriere della Sera.
Altri studi hanno dato risultati simili. Gaumont, Panahi e Chavalarias hanno ricostruito il panorama politico francese su Twitter durante le presidenziali 2017: gli autori hanno paragonato i link condivisi su Twitter con quelli classificati come fake news da Le Monde e hanno concluso che le persone interessate alla politica in Francia non diffondono molte fake news. Secondo un paper dello European Union Institute for Security Studies sulle cyber strategie russe, i Macron leaks (la diffusione di gigabyte di dati hackerati dallo staff di Emmanuel Macron due giorni prima del secondo turno delle presidenziali) non sono riusciti a raggiungere le fonti di informazione mainstream. Secondo Jean-Baptiste Jeangène Vilmer, questo è accaduto per varie ragioni, comprese quelle strutturali (l’elezione diretta del presidente in due tornate, un ambiente media resiliente e il cartesianesimo) ed errori da parte degli hacker (eccesso di sicurezza, scarso tempismo e maldestria culturale).
La Russia è stata accusata di usare le fake news per fare guerra dell’informazione all’estero, come analizzato nella monografia di Popescu e Secrieru pubblicata dallo European Union Institute for Security Studies. Un recente studio del governo francese sulla “manipolazione dell’informazione” afferma che l’80% delle autorità europee consultate attribuisce alla Russia i tentativi di interferenza in Europa. Un’altra fonte di influenza “arriva da altri Stati (principalmente Cina e Iran) e attori non statali (gruppi jihadisti, in particolare ISIS)”, si legge nel report. Tuttavia, alcuni studiosi hanno contestato questa percentuale in quanto tale volume è difficilmente misurabile, mancando un consenso sulla definizione di disinformazione.
In Italia, EU DisinfoLab ha testato un sistema di rilevazione della disinformazione su Twitter nella campagna per le elezioni di marzo 2018, trovando solo pochi esempi di disinformazione e nessuna prova di interferenza di attori stranieri. Inoltre AGCOM, l’autorità italiana per le telecomunicazioni, ha lanciato un’inchiesta su “piattaforme online e sistema dell’informazione”. Lo studio ha rilevato un picco nella quantità di disinformazione durante la campagna elettorale: mentre ad aprile 2016 il contenuto fake rappresentava in media l’1% del totale (2% considerando solo il contenuto online), nei 12 mesi successivi ha raggiunto una media del 6% (10% considerando solo il contenuto online). Inoltre, le fake news hanno un ciclo di vita più breve rispetto alle notizie vere: in media, le notizie vere “durano” 30 giorni, mentre le fake news solo 6 (la durata è calcolata come la distanza media tra il primo e l’ultimo giorno in cui una notizia compare almeno una volta).
Un gruppo di ricercatori dell'Università di Oxford ha studiato i dati Twitter su bot e junk news usando un set di hashtag relativi alle elezioni parlamentari tedesche del 2017. I ricercatori hanno esaminato un dataset di circa 984.713 tweet generati da 149.573 utenti unici, raccolti fra il primo e il 10 settembre 2017, usando hashtag associati con i principali partiti politici tedeschi, i principali candidati e le elezioni stesse. I ricercatori hanno rilevato che il traffico generato dagli account di estrema destra Alternative für Deutschland (AfD) era molto superiore alla percentuale dei voti. Inoltre, la maggior parte dei bot politici era al servizio di AfD, anche se l’impatto complessivo dei bot politici era minore. Lo studio ha evidenziato anche che gli utenti dei social media condividevano 4 link a fonti professionali di notizie per ogni link a junk news. Le cifre sono molto più alte se paragonate con le abitudini di condivisione negli Stati Uniti, ma più basse che in Francia.
Un altro report pubblicato nel 2018 dalla Fondazione Knight conferma questi dati. Bradshaw e Howard hanno calcolato il rapporto fra contenuto prodotto professionalmente e "junk news" (compresi hate speech, contenuto ultra-fazioso, ecc.) in base ai numeri di link in Stati Uniti, Germania, Francia e Regno Unito, trovando un rapporto di 1:1 negli USA, mentre la situazione era migliore nei tre paesi europei.
In Irlanda, il governo ha creato un Interdepartmental Group on the Security of Ireland's Electoral Process and Disinformation, che ha pubblicato il suo primo report a luglio 2018. Secondo un suo sondaggio, il 57% degli intervistati era preoccupato per le “fake news”, ma solo il 28% comprende il ruolo degli algoritmi e della diffusione della disinformazione.
Uno studio condotto dall’Open Society Institute di Sofia mostra un chiaro disegno geografico nel potenziale di resilienza alle “fake news” e al fenomeno associato della “post-verità”: i paesi con le migliori performance sono quelli dell’Europa settentrionale e nordoccidentale, al contrario di quelli dell’Europa sudorientale, mentre paesi come Ungheria, Italia e Grecia si collocano in una fascia media.
Azioni intraprese contro la disinformazione
La proliferazione senza precedenti dell’informazione fraudolenta e del suo potenziale di diffusione senza limiti attraverso lo spazio digitale ha portato diverse organizzazioni internazionali ed europee a sviluppare strategie per contrastare il fenomeno. Tuttavia, il compito è particolarmente difficile per una serie di motivi. In primo luogo, come illustrato in precedenza, il fenomeno comprende una gamma di differenti tipi di disinformazione e, senza una definizione concordata, è difficile sviluppare una strategia comune. In più, i tentativi di gestire il fenomeno comportano seri rischi di limitare la libertà di espressione. A questo proposito, identificare l’autorità preposta a rilevare la disinformazione diventa uno dei compiti più insidiosi. Altre questioni spinose riguardano l’opportunità di dare questa facoltà a compagnie IT private come Facebook e Twitter oppure alle autorità statali. Infine, nel secondo caso, se tale autorità debba essere il governo o la magistratura. D’altra parte, sono sempre più frequenti gli inviti a rivolgere gli sforzi al rafforzamento della qualità dell’informazione, dei citizens’ media e della media literacy.
Nella Dichiarazione congiunta su libertà di espressione e “fake news”, disinformazione e propaganda adottata il 3 marzo 2017, gli organi internazionali che si occupano di libertà di espressione (fra cui il Rappresentante speciale ONU per la libertà di opinione ed espressione e il Rappresentante OSCE per la libertà dei media) hanno affrontato questi problemi invitando tutti gli attori coinvolti (stati, intermediari, media, giornalisti e società civile) ad adottare misure mirate a contrastare la diffusione delle “fake news”. La dichiarazione ha affrontato in particolare il ruolo degli stati nello stabilire un quadro normativo chiaro che protegga i media dall’interferenza politica e commerciale, nell’“assicurare la presenza di media di servizio pubblico forti, indipendenti e adeguatamente finanziati” e nel fornire “sussidi o altre forme di sostegno tecnico o economico alla produzione di contenuti pluralistici e di qualità”. Si è anche sottolineato che la battaglia contro le “fake news” non può sfociare in limitazioni strumentali della libertà di espressione. Di conseguenza, gli stati dovrebbero limitare i controlli tecnici sulle tecnologie digitali come il blocco, il filtro e la chiusura di spazi digitali, così come ogni sforzo di “privatizzare” le misure di controllo facendo pressione sugli intermediari perché intervengano per restringere i contenuti. Il documento ha evidenziato il bisogno di trasparenza e regole contro l’indebita concentrazione della proprietà dei media e il ruolo della media literacy come strumento chiave per rafforzare la capacità di discernimento del pubblico, che le autorità pubbliche devono sostenere attivamente.
La risposta dell'Unione europea
Le prime azioni dell’Unione europea contro il fenomeno “fake news” miravano specificamente a contrastare le campagne di disinformazione della Russia. Dopo il lancio della East StratCom Task Force del Servizio europeo per l'azione esterna nel marzo 2015, il Consiglio europeo ha incaricato l’Alto rappresentante, in collaborazione con stati membri e istituzioni UE, di presentare un piano d’azione sulla comunicazione strategica, sottolineando la necessità di stabilire come primo passo un team per la comunicazione. A maggio 2016, la Commissione europea ha presentato la sua comunicazione sulle piattaforme online al PE, al Consiglio, al Comitato economico e sociale e al Comitato delle regioni. Il 12 settembre 2017, la Task Force ha presentato il suo nuovo sito web EU vs Disinfo, descritto come parte della campagna “EU vs Disinformation” mirata a “meglio prevenire, affrontare e contrastare la disinformazione pro-Cremlino”.
Una recente analisi di Alberto Alemanno ha esaminato i meccanismi di funzionamento di Disinformation Review , definita nel sito EU vs Disinfo il “prodotto bandiera della campagna EU vs Disinformation”. Alemanno ha richiesto all’EEAS dei documenti per capire il funzionamento della segnalazione degli articoli di disinformazione agli ufficiali UE da parte del network di oltre 400 esperti, giornalisti, ufficiali, ONG e think-tank in oltre 30 paesi. Alemanno conclude che il processo di esame delle fonti inserite in Disinformation Review e i criteri usati per il debunking di fake news e propaganda russa sono vaghi e soggettivi. A marzo 2018, Alemanno et al. hanno presentato una denuncia al Difensore civico europeo evidenziando che la metodologia “ad hoc” di fact-checking di Disinformation Review non corrisponde a quella adottata dalla comunità internazionale di fact-checking, guidata dall’International Fact-Checking Network (IFCN). Inoltre, si sottolinea che la pubblicazione viola i diritti alla libertà di espressione e al giusto processo di chi è accusato di diffondere disinformazione.
A marzo 2018, il parlamento olandese ha richiesto la chiusura del sito web, che aveva erroneamente inserito degli articoli pubblicati sui media olandesi nella lista dei casi che “presentano una visione o interpretazione parziale, distorta o falsa e/o diffondono messaggi chiave pro-Cremlino”. La task-force ha rimosso gli articoli e la denuncia è stata ritirata.
Il dibattito è continuato con 16 analisti di affari internazionali che in un op-ed pubblicato su EUobserver si sono schierati con il servizio europeo. L’articolo affermava che l’inserimento erroneo degli articoli olandesi fosse stato il risultato delle carenze di staff e finanziamenti di EUvsDisinfo e sottolineava che, “alla luce della seria minaccia della disinformazione russa alle democrazie occidentali”, il sito EUvsDisinfo doveva essere rafforzato, non chiuso.
Il processo multi-stakeholder della Commissione europea
La CE ha lanciato a novembre 2017 un processo multi-stakeholder “per trovare le giuste soluzioni in linea con i principi fondamentali e applicabili in modo coerente in tutta l’Unione” in vista delle elezioni europee di maggio 2019. Il processo è iniziato con una conferenza multi-stakeholder di due giorni sulle fake news , seguita dal lancio di una consultazione pubblica che ha ricevuto 2.986 risposte, con il maggior numero di reazioni provenienti da Belgio, Francia, UK, Italia e Spagna e alta partecipazione in Lituania, Slovacchia e Romania. Il primo incontro dell’High Level Expert Group (HLEG) on Fake News si è tenuto lo stesso mese. Dopo altri tre incontri nel 2018, l’HLEG ha prodotto un report a marzo 2018.
L’HLEG ha espresso diverse raccomandazioni, tra cui: introdurre un codice di principi per piattaforme online e social network, assicurare trasparenza spiegando come gli algoritmi selezionano le notizie; migliorare la visibilità delle notizie affidabili e facilitarne l’accesso da parte degli utenti; sostenere il giornalismo di qualità negli stati membri per incoraggiare il pluralismo nei media e migliorare la media literacy tramite il sostegno a iniziative educative e campagne di sensibilizzazione mirate.
Al report HLEG è seguita ad aprile 2018 la Comunicazione della CE, che ha trasformato i 10 principi del report HLEG in 9 obiettivi chiari, “che dovrebbero guidare le azioni per sensibilizzare il pubblico sulla disinformazione e contrastare efficacemente il fenomeno, così come le misure specifiche che la Commissione intende implementare”. Gli obiettivi comprendono: migliorare il controllo sulla pubblicità con lo specifico intento di restringere le opzioni di targeting per la pubblicità politica; assicurare trasparenza sui contenuti sponsorizzati; facilitare la valutazione dei contenuti da parte degli utenti tramite indicatori dell’affidabilità delle fonti; migliorare la reperibilità di contenuti affidabili; stabilire sistemi chiari di identificazione e regole per i bot; dare agli utenti strumenti per facilitare la diversificazione delle fonti di notizie; fornire agli utenti strumenti di facile accessibilità per segnalare la disinformazione; assicurare che i servizi online includano, da progettazione, barriere contro la disinformazione e infine fornire a organizzazioni fidate di fact-checking e di ricerca l’accesso ai dati della piattaforma, rispettando la privacy degli utenti, il segreto professionale e la proprietà intellettuale.
A settembre 2018, un Codice di autoregolamentazione è stato concordato dai rappresentanti di piattaforme online, principali social network e agenzie pubblicitarie per contrastare disinformazione online e fake news. Il Codice comprende un annesso che identifica le migliori pratiche che i firmatari applicheranno per implementare gli impegni del Codice. Secondo il nuovo codice, fra le altre cose, si dovrebbero sospendere le entrate pubblicitarie delle imprese che diffondono “fake news” e intensificare il contrasto a fake account e bot. Diverse compagnie IT, fra cui Google, Facebook, Twitter e Mozilla, hanno espresso la volontà di aderire al codice proposto dall’UE, presentando road-map individuali per raggiungere l’obiettivo. D’altra parte, l’UE monitorerebbe regolarmente la loro efficacia.
Tuttavia, la “cassa armonica” (gruppo Multistakeholder Forum on Disinformation Online, che comprende 10 rappresentanti di media, società civile, fact-checker e accademia) è stata molto critica in merito al Codice, sottolineando che alle piattaforme manca un approccio comune così come impegni chiari e significativi, obiettivi misurabili o indicatori chiave di performance. Data l’impossibilità di monitorare il processo, il codice non può essere uno strumento di compliance o vincolante e “non rappresenta in alcun modo auto-regolamentazione”.
A dicembre 2018, l’UE ha presentato un Piano d’azione per intensificare gli sforzi contro la disinformazione in vista delle europee di primavera 2019. Andrus Ansip, vice-presidente responsabile del Mercato unico digitale, ha identificato nella Russia la “fonte primaria” di “tentativi di interferire in elezioni e referendum”. Il Piano d’azione si concentra su quattro aree: migliore rilevamento, risposta coordinata, industria delle piattaforme online e sensibilizzazione ed empowerment dei cittadini. Le misure includono rimpolpare il budget comunicazione strategica dell’EEAS da 1,9 milioni di Euro nel 2018 a 5 nel 2019, aggiungere staff esperto e strumenti per l’analisi dei dati, istituire un nuovo "sistema di allerta rapida" fra istituzioni e stati membri UE per facilitare la condivisione di dati e le valutazioni sulla disinformazione. Le autorità UE sulla disinformazione vogliono che da gennaio a maggio le compagnie IT presentino dei report sui loro progressi nello sradicare le campagne di disinformazione dalle proprie piattaforme e forniscano aggiornamenti sulla loro cooperazione con fact-checker e ricercatori accademici per smascherare le campagne di disinformazione.
Altri rimedi alla disinformazione
Un gruppo di quattro esperti, accademici e fact-checker, tutti membri HLEG, ha pubblicato un commento sul report CE sulla disinformazione, sottolineando che, se la disinformazione è chiaramente un problema, la sua dimensione e impatto, agenti associati e infrastrutture di amplificazione devono essere esaminati in modo più approfondito. C’è un generale accordo fra studiosi ed esperti che, a meno che non emergano proposte chiare senza controindicazioni significative, la disinformazione richiede un approccio di “soft power” da parte delle autorità.
Negli ultimi anni, gli stati membri hanno affrontato la questione in diverse modalità, compresi differenti approcci normativi.
Una delle prime azioni normative contro i contenuti illegali online è stata intrapresa dalla Germania con la Network Enforcement Law (NetzDG) , entrata in vigore il primo gennaio 2018. La legge richiede alle piattaforme social di rimuovere i contenuti considerati illegali entro 24 ore e stabilisce sanzioni fino a 50 milioni di Euro per i social network che non rispettano questa norma. La misura è stata criticata perché comporta “il rischio di maggiore censura”, come spiega David Kaye, Rappresentante speciale ONU per la libertà di espressione.
A febbraio 2018, il presidente francese Emmanuel Macron ha annunciato un piano per introdurre una legislazione che limitasse la diffusione della disinformazione nelle campagne elettorali future. Il presidente ha dichiarato che l’obiettivo sarebbe stato raggiunto attraverso maggiore trasparenza e bloccando i siti offensivi. Macron ha citato “migliaia di account di propaganda sui social network” diffusi “in tutto il mondo, in tutte le lingue, menzogne inventate per compromettere politici, personalità, figure pubbliche, giornalisti” e ha invocato “una forte legislazione” per “proteggere le democrazie liberali”.
Un ulteriore meccanismo di controllo è stato introdotto durante le elezioni 2018 in Italia, dove precedenti tentativi di introdurre una legge contro le “fake news” erano stati abbandonati in seguito alle critiche che li definivano meccanismi di censura. Prima delle elezioni 2018, la Polizia di Stato ha lanciato sul proprio sito un “bottone rosso” per segnalare le fake news, su iniziativa dell’allora ministro degli Interni Marco Minniti. Il protocollo adottato alla vigilia delle elezioni, che abilitava la Polizia postale al fact-checking e alla segnalazione di contenuti, aveva causato preoccupazione nel dibattito pubblico.
Nella sua tassonomia di approcci anti-fake news , Alberto Alemanno sostiene che le proposte di legge “guardano agli alberi anziché alla foresta”, aggiungendo che “in questo modo, non solo rimarranno irrilevanti, ma aggraveranno i problemi alla radice del fenomeno fake news”. La soluzione prospettata nell’articolo è “annegare le fake news con la verità”. Spiegando questa idea, lo studioso suggerisce la possibilità di introdurre una legge che richieda a tutti i social network di invitare i lettori ad avere più facile accesso a ulteriori prospettive e informazioni, inclusi articoli di fact-checker terzi. Questo non farebbe che sistematizzare una pratica già implementata da Facebook su base volontaria con i suoi “Articoli correlati” , sostiene l’esperto.
Il fact-checking umano e computerizzato è diventato uno dei principali metodi impiegati per contrastare la diffusione della disinformazione. Il termine è riferito di solito a processi interni di verifica usati dai giornalisti per il proprio lavoro, ma i fact-checker (o debunker) che si occupano di disinformazione sono coinvolti in fact-checking ex-post. L’International Fact-Checking Network di Poynter ha elaborato un codice di principi firmato dalla maggioranza dei fact-checker che include cinque impegni: Imparzialità e correttezza, Trasparenza delle fonti, Trasparenza di finanziamento e organizzazione, Trasparenza di metodologia e Politica di correzione aperta e onesta. Tuttavia, come spiega Craig Silverman, i fatti da soli non bastano a combattere la disinformazione. Particolarmente spinoso per il fact-checking è l’effetto boomerang: non solo perché contraddire le persone tende a farle ripiegare sulle loro convinzioni preesistenti, ma anche perché smentire un’affermazione la fa radicare ulteriormente nella mente di una persona. Commentando l’invito della CE alla creazione di uno European Network indipendente di fact-checker, il report congiunto Informing the ‘Disinformation’ Debate di EDRI solleva dubbi basati sul fatto che “assicurare l’indipendenza e i criteri per la corretta esecuzione del ‘fact-checking’ non è semplice come sembra. Ci sono rischi di conflitto di interessi diretto e indiretto, abuso di potere, parzialità e altri costi significativi”.
Sono state proposte molte altre soluzioni al propagarsi della disinformazione, dalle iniziative per gli editori per segnalare la propria credibilità alle tecnologie per etichettare automaticamente la disinformazione e definire e annotare gli indicatori di credibilità negli articoli di cronaca. Tuttavia, proposte come gli “indici di credibilità” sono state anche criticate come metodi che indeboliscono la libertà di espressione.
In Oxygen of Amplification, Whitney Phillips sostiene che in molti casi l’amplificazione è effettivamente l’obiettivo dell’azione segnalata. La studiosa sostiene che questo non significa che le regole della notiziabilità dovrebbero essere sacrificate per evitare l’amplificazione, ma che è necessaria più attenzione quando si ha a che fare con informazione falsa, manipolazione e campagne persecutorie, come si fa già con la cronaca dei suicidi.
Il potenziale ruolo dei media tradizionali nel contrasto alla disinformazione è stato evidenziato da vari studi. Come sottolineato in Lies, Damn Lies and Viral Content, uno dei motivi per cui le “fake news” riescono a raggiungere un pubblico più ampio e “diventare virali” è legato alla pratica di molti siti web tradizionali di notizie di pubblicare voci e affermazioni non verificate (a volte provenienti da altri media) senza aggiungere copertura o valore, divenendo così facile bersaglio per le bufale. Se la fiducia nei media tradizionali è in declino negli ultimi anni è a causa di questo fenomeno.
Ricardo Gutiérrez, segretario generale della Federazione europea dei giornalisti e membro dell’HLEG on Fake News, sostiene che “il miglior antidoto alla disinformazione sono il giornalismo di qualità, l’etica e la media literacy critica”. La media literacy è un fattore chiave di mitigazione largamente riconosciuto. Il report HLEG sottolinea anche l’importanza di media e information literacy, perché rendono le persone in grado di identificare la disinformazione. Afferma anche che “la media literacy non può [...] essere limitata alle persone giovani, ma deve coinvolgere gli adulti così come insegnanti e professionisti dei media” per aiutarli a rimanere al passo con le tecnologie digitali.
In un altro report di Lessenski, la media literacy è spesso definita come “un mezzo per rafforzare il potenziale di resilienza agli effetti negativi di fiducia calante del pubblico, polarizzazione nella politica e nella società e frammentazione dei media”. E ancora, educazione e media literacy emergono come elementi chiave per costruire la resilienza al fenomeno della post-verità e ridurre la polarizzazione, rafforzando la fiducia nella società e nei media.
Questa pubblicazione è stata prodotta nell'ambito del progetto European Centre for Press and Media Freedom, cofinanziato dalla Commissione europea. La responsabilità sui contenuti di questa pubblicazione è di Osservatorio Balcani e Caucaso e non riflette in alcun modo l'opinione dell'Unione Europea. Vai alla pagina del progetto
Hai pensato a un abbonamento a OBC Transeuropa? Sosterrai il nostro lavoro e riceverai articoli in anteprima e più contenuti. Abbonati a OBCT!