Journal

Come proteggere la verità dalle Fake news

Fake News

Sinan Aral, Data scientist, ha tenuto un interessante TED Talk sull’argomento Fake news condiviso da TED lo scorso dicembre. La domanda da cui lo scienziato è partito è stata: Come possiamo proteggere la verità, in quest’epoca di falsità diffuse? Abbiamo trovato il suo intervento davvero illuminante, per questo motivo abbiamo deciso di condividerlo (con alcune nostre osservazioni) in lingua italiana.

 

Un mondo di Fake News

Non è una novità come una delle più grandi minacce alla nostra società sia costituita oggi dalle Fake news. Soprattutto quando si parla di politica, e ci si avvicina ad elezioni, contenuti fasulli cominciano a circolare con particolare forza. La potenzialità maggiore di questo tipo di informazioni è quella di diffondersi con grande velocità.

Un recente studio della Oxford University ha dimostrato come nelle ultime elezioni Svedesi, ben 1/3 delle informazioni diffuse sui social media fossero false o semplicemente incorrette, sostiene Sinan. E questo può portare all’insorgere dell’ira popolare, a movimenti violenti, a reazioni scomposte. Tutto questo ha portato lo scienziato e il suo team a studiare più approfonditamente il problema. Perché si generano fake news? E perché si diffondono così in fretta?

 

Non è un problema di bot e popolarità

Potrebbe essere plausibile pensare che siano i bot, programmi che simulano il comportamento umano per un innumerevole numero di volte, a causare questa velocissima diffusione. Ma Sinan e il suo gruppo hanno dimostrato che questi software diffondono fake news e real news alla stessa identica velocità, e con la stessa intensità. Quindi il problema non è ascrivibile a loro. Un’altra ipotesi, è che chi diffonde le fake news sia estremamente attivo sui social, abbia moltissime follower ed una reputazione consolidata come fonte certa d’informazioni. Anche qui, il team dello scienziato ha rilevato come spessissimo i diffusori di fake siano in realtà quasi inesistenti on-line, con presenze sporadiche, pochi follower, rarissime attività. Quindi? Chi diffonde le informazioni sbagliate?

Sono le persone a favorire la diffusione. Soprattutto, quando la notizia è sconvolgente, terribile, quando procura indignazione. Sono questi i contenuti che vengono diffusi più velocemente, in barba a qualsiasi fact-cheking. I fatti reali, anche quando riportano notizie liete, avanzamenti tecnologici, speranza, si diffondono con meno impeto. Semplicemente, risultano meno interessanti, poiché scatenano nell’uomo sentimenti meno dirompenti. Come dire che guardiamo il bicchiere mezzo vuoto, e se ci dicono che il bicchiere è addirittura rotto, iniziamo ad urlarlo ai quattro venti.

 

Pare che il peggio debba ancora venire

La cosa che più dovrebbe preoccuparci è l’avvento di due tecnologie che probabilmente peggioreranno la situazione. Fra queste i generatori di media sintetici. Come Tutela Digitale ci siamo occupati a fondo di Deep fake, ed è proprio di questo che parliamo: video falsi, tracce audio false, ma così realistiche da essere vere per l’occhio umano. Strumenti che permettono di far dire e fare qualcosa a qualcuno che quelle cose non le ha mai dette né fatte. Pura confusione, pura falsità, che soprattutto in ambito politico può creare enormi problemi.

Possiamo solo immaginare come questo, applicato alla machine learning, possa significare. Immaginate un’intelligenza artificiale il cui solo scopo è quello di generare contenuti fake correggendosi continuamente, nel tentativo di migliorare sempre di più. Nel tentativo di diventare perfetta anche per un’altra macchina il cui scopo è smascherarla… Il futuro, da questo punto di vista, fa davvero paura.

Ma non finisce qui. La seconda tecnologia di cui aver paura, secondo Sinan, è la democratizzazione dell’intelligenza artificiale. Ovvero il libero accesso da parte di qualsiasi utente a tecnologie che permettono la creazione di media sintetici, di deep fake irriconoscibili.

 

Come uscire da questa situazione e smascherare le fake news

Ci sono circa cinque diversi percorsi che possiamo seguire per cercare di affrontare alcuni di questi problemi. Vediamoli insieme:

 

L’Etichettatura

Quando compriamo del cibo questo è ampiamente etichettato. Sappiamo quante calorie ha, quanto grasso contiene. Ma quando “consumiamo” informazioni non abbiamo alcuna etichetta. Cosa è contenuto in queste informazioni? La fonte è credibile? Da dove vengono raccolte? Quella di etichettare l’informazione è una potenziale strada, ma comporta le sue sfide. Ad esempio, chi può decidere cosa è vero e cosa è falso? Sono i governi? È Facebook? È un consorzio indipendente di verificatori di fatti? E chi sta controllando i correttori di fatti? Siamo ancora lontani.

 

Gli incentivi economici

Un’altra potenziale strada sono gli incentivi. Sappiamo che durante le elezioni presidenziali statunitensi si è verificata un’ondata di disinformazione proveniente dalla Macedonia che non aveva alcun motivo politico di esistere, ma aveva un motivo economico. Questo perché le notizie false possono far guadagnare soldi attirando attenzioni e clic. Ma se potessimo reprimere la diffusione di queste informazioni, forse questo ridurrebbe l’incentivo economico a produrle, risolvendo il problema alla radice.

 

La regolamentazione

Possiamo pensare ad una regolamentazione ad hoc. Negli Stati Uniti, attualmente, stiamo esplorando cosa potrebbe accadere se Facebook e altri fossero regolati. Mentre dovremmo considerare cose come regolare il discorso politico, etichettare il fatto che sia un discorso politico, assicurarci che gli attori stranieri non possano finanziare il discorso politico, ha anche i suoi pericoli. Ad esempio, la Malesia ha appena istituito una pena detentiva di sei anni per chiunque abbia scoperto che diffondeva disinformazione. E nei regimi autoritari, questo tipo di politiche può essere usato per sopprimere le opinioni delle minoranze e per continuare ad estendere la repressione.

 

La Trasparenza

La quarta opzione possibile è la trasparenza. Sapere come funzionano gli algoritmi di Facebook. In che modo i dati si combinano con gli algoritmi per produrre i risultati che vediamo? Vogliamo conoscere esattamente i meccanismi interni, poiché solo se scienziati, ricercatori e altri hanno accesso a questo tipo di informazioni possono studiarle e risolvere problemi. Allo stesso tempo però, chiediamo alle piattaforme social di proteggere i dati, il ché al momento pare un paradosso.

 

Il Machine Learning va integrato con l’uomo

L’ultima soluzione sono gli algoritmi e l’apprendimento automatico integrati con il pensiero etico e filosofico umano. Gli esseri umani devono essere nel circuito di questa tecnologia, perché alla base di qualsiasi soluzione o approccio tecnologico vi è la domanda: come definiamo la verità e la falsità? A chi diamo il potere di definirlo? Quali opinioni sono legittime, quale tipo di discorso dovrebbe essere consentito o meno?  La tecnologia da sola non basta, l’etica e la filosofia, discipline applicabili solo dall’uomo, sono l’unica strada.

 

Condividi