Le storie non significano nulla

Read time: 3 mins

Inside Orebro castle. Credit: Paulius Malinovskis / Flickr. Licenza: CC BY 2.0.

In un suo recente articolo apparso su PNAS, il giornalista M. Mitchell Waldrop usa proprio questa frase così provocatoria e che ricorda un celebre monologo Shakesperiano, per riassumere uno dei problemi del mondo dell'informazione odierno: gli sforzi per la produzione di contenuti seri e verificati da soli possono fare poco contro la mis/dis/mal infomazione, se non si accompagnano ad altrettanti sforzi da parte di big come Facebook e Google, di lavorare sulla logica degli algoritmi che presentano i contenuti agli utenti.

Anche se suddetti big hanno dichiarato di voler investire in questa direzione – spiega Waldrop – la verità è che al momento strategie chiare ce ne sono poche. Facebook per esempio sta stringendo legami con aziende per finanziare la formazione di giornalisti, ma chiaramente non basta.

Incoronarsi controllori?

Il problema per i social media è essenzialmente come riuscire a dirimere fra assicurare la libertà di parola a tutti e il decidere che cosa è accettabile e che cosa no. Secondo Ethan Zuckerman, giornalista che dirige il Center for Civic Media al MIT, una forma di censura non è possibile, e anche solo provare condurrebbe al disastro perché fomenterebbe nei produttori di fake news ancora di più il desiderio di continuare a fare disinformazione.

Non significa però non potere fare nulla. Sono due infatti le strategie che secondo l'autore colossi come Facebook e Google possono mettere in campo per affrontare il problema. Anzitutto fare in modo che certe notizie provenienti da siti non considerati accertati vengano indicizzate meno (cosa che lo stesso Facebook aveva annunciato di voler fare a maggio 2017), e secondo investire nell'alfabetizzazione mediatica degli utenti, per rendere le persone sempre più “savvy”, cioè consapevoli.

Accanto alla prima strategia, per scoraggiare i produttori e i diffusori di notizie false c'è anche un'altra possibile strada, quella di ridurre al minimo i “benefici” che si possono trarre dal fare disinformazione. Non dimentichiamo che grossa parte delle notizie false che circolano in rete e sui social network sono fabbricate ad hoc per far fruttare denaro, per esempio tramite la pubblicità, a chi le produce e le veicola. In questo senso – spiega l'autore – Facebook e Google hanno già affermato che alcuni siti non avrebbero più potuto guadagnare denaro tramite le loro reti pubblicitarie.

Meglio i falsi positivi che i falsi negativi?

Eppure, al momento pare che viviamo un circolo vizioso senza vie d'uscita sicure. Secondo quanto riferisce Filippo Menczer, computer scientist dell'Università dell'Indiana, le grandi aziende finiscono per preferire i falsi negativi prodotti dagli algoritmi, che al massimo lasciano passare articoli spazzatura, piuttosto che i falsi positivi che finiscono per includere nella massa di articoli spazzatura notizie invece verificate, come è accaduto nel caso della foto vincitrice del premio Pulitzer che raffigurava una bambina di 9 anni vietnamita che fugge nuda da un attacco di Napalm, e che gli algoritmi per la protezione contro la pedopornografia hanno segnalato come contenuto spazzatura.

La seconda strategia è quella di aiutare gli utenti a valutare quello che stanno vedendo. Nel febbraio 2017 un rapporto di Pew Research ha evidenziato che le persone ricordano meno la fonte della notizia che hanno visionato sui social network rispetto a quando arrivano alla notizia tramite il sito web. Sulla scia di queste osservazioni, qualche mese dopo, in agosto, Facebook aveva proposto di permettere agli editori di inserire il logo del proprio brand accanto al titolo delle notizie in modo che compaia chiaramente anche nella preview sui social. Tuttavia, pare non essere così semplice risolvere il problema. Uno studio pubblicato a settembre 2017 da alcuni ricercatori dell'Università di Yale ha mostrato che “etichettare” le notizie rafforza implicitamente l'idea che vi sia un'autorità che dirime tra le informazioni “accettate” e quelle che non lo sono, provocando un inasprimento contro questa autorità in nome della libertà di pensiero e parola. Insomma, si tratterebbe di un'operazione controproducente. E si ritorna così al problema evidenziato in apertura: come riuscire, da parte dei vari Facebook e Google, a sciogliere il dilemma fra assicurare la libertà di parola a tutti e decidere che cosa è accettabile e che cosa no.

@CristinaDaRold

altri articoli