Fake news e IA, Guido Di Fraia: «Serve una nuova media education per arginare la disinformazione»

Dal video del bacio tra Giorgia Meloni ed Elon Musk, passando alle immagini di Papa Francesco in versione rapper, fino al finto endorsement di Taylor Swift per Donald Trump. L’Intelligenza Artificiale generativa sta rivoluzionando la produzione e la diffusione di fake news, rendendole sempre più sofisticate e mirate.

Guido Di Fraia, Prorettore all’Innovazione e all’Intelligenza Artificiale della IULM e direttore dello IULM AI Lab, spiega i rischi, le opportunità e l’urgenza di una nuova media education per contrastare la disinformazione made in AI.

Qual è il ruolo dell’Intelligenza Artificiale nella creazione e diffusione di fake news?

Gli strumenti di IA generativa possono creare immagini, video e testi senza alcuna garanzia di veridicità. Il problema è che questi contenuti, sempre più sofisticati e difficili da distinguere dalla realtà, si combinano con algoritmi capaci di influenzare l’informazione. Il risultato è una disinformazione sempre più mirata, che alimenta le filter bubbles e polarizza il pubblico in nicchie chiuse, spesso rafforzate dalle fake news.

Quali sono gli strumenti di IA più usati per creare fake news?

Fino a qualche mese fa, i modelli di IA soffrivano di un certo livello di allucinazione, rendendo difficile ottenere un realismo credibile. Oggi, invece, la qualità dei contenuti è nettamente migliorata ed è accessibile a molti. Anche strumenti con limitazioni apparenti, come ChatGPT, possono essere facilmente aggirati. Gli utenti più esperti tendono a utilizzare le soluzioni più avanzate e realistiche. Per esempio, da qualche mese Sora è diventato più potente ed è tra i più utilizzati.

L’IA può essere usata anche per diffondere fake news su larga scala.

Sì, esistono vere e proprie content farm specializzate nella costruzione di fake news, che utilizzano bot istruiti sugli argomenti da trattare e sul tono di voce da adottare. Il risultato è una produzione automatizzata di articoli e contenuti disinformativi, diffusi con estrema precisione.

L’IA può diffondere notizie false involontariamente?

Le macchine non sono perfette, per cui esiste sempre un margine di errore nella generazione dei contenuti. I chatbot, per esempio, raccolgono informazioni dalla rete e possono includere dati inesatti. Il problema è che l’IA può prendere cantonate, non riconoscere l’autenticità di una fonte e trattarla come affidabile anche se non lo è. Per questo è fondamentale adottare un approccio critico: quando si utilizzano modelli generativi, è sempre bene verificare le fonti indicate e confrontarle con altre.

Se da un lato può alimentare le fake news, dall’altro può anche funzionare da argine.

È il classico discorso di uso giusto e sbagliato dell’IA. Si parla spesso dei tratti negativi, ma in realtà l’Intelligenza Artificiale è l’unico strumento che abbiamo per riconoscere veramente le fake news generate artificialmente. Mentre l’essere umano, infatti, è in grado di distinguerle solo per il livello di qualità, un algoritmo può intercettarle automaticamente. Ma il problema di fondo riguardo il nostro approccio culturale, servirebbe una nuova media education.

Cosa intende per nuova media education?

Serve maggiore consapevolezza sull’IA e su come funziona l’informazione. Oggi scorriamo le notizie in pochi secondi, senza interrogarci sulla loro veridicità, a meno che non siano eclatanti. Leggiamo un titolo qui, un post lì, senza approfondire. Più che sugli strumenti, dovremmo puntare sull’educazione alla verifica delle fonti.

Ci sono però dei consigli per riconoscere fake news generate dall’IA?

Sì, ma bisogna allenare l’occhio. Le allucinazioni dell’IA spesso emergono nei dettagli. Nei video generati artificialmente, per esempio, i movimenti dei piedi risultano innaturali e le camminate poco realistiche. Anche negli occhi si possono notare riflessi di luce non coerenti con l’illuminazione generale. Ma il consiglio migliore resta sempre lo stesso: confrontare la notizia con più fonti. Il contesto, il valore della notizia e la sua provenienza sono elementi fondamentali per valutarne l’attendibilità.

L’ultima domanda gliel’ho fatta fare al mio bot su ChatGPT.

Va bene (ride, ndr).

Recita così: «Se anche l’AI può creare storie, immagini e persino emozioni credibili, cosa ci rimane di autenticamente umano nella costruzione della verità?»

È un bel punto di vista. Ci costringe a interrogarci sul tema della verità, soprattutto sul tema dell’uso della verità che gli esseri umani hanno fatto nel corso del tempo. In realtà, la verità è sempre stata un optional rispetto agli orientamenti culturali e allo sviluppo della società. La storia dell’umanità è stata spesso modellata da idee che avevano poco a che fare con il reale: ideologie, religioni, pensieri politici deviati. Eppure, milioni di persone sono state uccise in nome di verità costruite. Il cristiano che distruggeva le popolazioni indigene perché prive di anima non si basava su una verità, eppure ha orientato la storia.

Quindi, niente di nuovo sotto il sole.

Il mondo è sempre stato mosso da narrazioni, vere o false. Jerome Bruner diceva che ogni racconto tradisce la realtà, anche quando vuole rappresentarla fedelmente. Figuriamoci quando viene piegato a fini ideologici o politici. Rimangono la nostra capacità critica e la responsabilità individuale di prendere decisioni basate sulla verifica. L’unico strumento che ci ha permesso di svilupparci è il pensiero scientifico. L’Intelligenza Artificiale ci offre entrambe le possibilità: può generare narrazioni false, ma anche analizzare dati con rigore. Sta a noi scegliere come usarla.

Ettore Saladini

Laureato in Relazioni Internazionali e Sicurezza alla LUISS di Roma con un semestre in Israele alla Reichman University (Tel Aviv). Mi interesso di politica estera, politica interna e cultura. Nel mio Gotha ci sono gli Strokes, Calcutta, Martin Eden, Conrad, Moshe Dayan, Jung e Wes Anderson.

No Comments Yet

Leave a Reply