AI e moderazione dei contenuti su Facebook
Il problema della disinformazione e della diffusione di contenuti violenti è una realtà contro la quale l’ecosistema dei social network si trova a fare i conti quotidianamente.
Spesso il solo intervento umano non è sufficiente, non solo in termini di quantità di notizie da analizzare, ma soprattutto in termini di salute. In tempi recenti il colosso di Zuckerberg ha accettato di stanziare un risarcimento di 52 milioni di dollari ai dipendenti incaricati della moderazione dei contenuti in seguito a numerose denunce da parte degli stessi, i quali hanno sviluppato un disturbo post-traumatico da stress dovuto all’entità del lavoro svolto.
Come se non bastasse, lo scoppiare della pandemia da COVID-19 ha portato con sé una crescita esponenziale di fake news e annunci fraudolenti. Rimuovere fonti di disinformazione è diventato ancora più importante per la tutela degli utenti, laddove la diffusione di pseudoscienze, incitamenti all’odio e alla violenza, teorie del complotto e truffe di ogni genere rappresentano un vero e proprio pericolo per la sicurezza dei cittadini.
Il social network, in collaborazione con oltre 60 organizzazioni internazionali di fact-checking, ha tentato di far fronte all’emergenza implementando le funzionalità e l’utilizzo dei sistemi di Intelligenza Artificiale, cercando al contempo di perfezionarne mano a mano l’operato.
A che punto siamo
La sfida è riuscire a segnalare correttamente quali siano le notizie autentiche e quali no.
Due fotografie completamente identiche sono facili da riconoscere per l’occhio umano, ma non per l’intelligenza artificiale: un metodo utilizzato per aggirare i controlli è quello di fare uno screenshot della notizia falsa oppure applicarvi un filtro che la distorca. L’AI, ragionando per pixel, fatica a distinguere queste piccole variazioni. È difficile anche qualora le due immagini siano praticamente identiche. Quando viene semplicemente modificata una lettera, il senso viene stravolto, ma l’algoritmo non se ne accorge.
SimSearchNet è il nome del software utilizzato da Facebook nella lotta contro le fake news. Si tratta di un sistema basato su una simil rete neurale, nato proprio per riconoscere i doppioni e i vari escamotage utilizzati per aggirare i controlli. Insomma, conosce bene il nemico.
Il sistema sembra funzionare. Se la notizia si rivela falsa, la sua diffusione viene limitata e la sua lettura ostacolata da un banner che segnala la sua poca attendibilità. Il 95% delle persone non la apre.
Facebook ha impiegato l’AI anche per monitorare la pubblicazione di annunci fraudolenti riguardanti mascherine, cure, kit per la diagnosi del COVID-19 e presunte cure.
Sarà questa la soluzione al diffondersi di notizie false online? Certamente, l’intelligenza artificiale potrebbe dare una grande mano.