“AI, AI, cosa mi fai?” cantava Dargen D’Amico a Sanremo, anticipando un fenomeno sempre più concreto. L’intelligenza artificiale nasce per aiutare: velocizzare analisi, trovare risposte, supportare decisioni. Ma quando diventa centrale, rischia di sostituire le persone, ridurre posti di lavoro e cambiare ruoli tradizionali. Dal lavoro in banca e nei tribunali, alla psicologia e alla guida spirituale, fino a musica, doppiaggio, tecnologia e persino conflitti militari. L’AI non è solo uno strumento: può generare deepfake, fake news, errori e incidenti reali, trasformandosi in un sostituto potente ma pericoloso dell’uomo.
Sei milioni di lavoratori a rischio
Secondo l’ultimo studio di Confcooprative, realizzato in collaborazione con il Censis, entro il 2035, almeno 6 milioni di lavoratori rischiano di perdere il lavoro a causa dell’intelligenza artificiale. Il focus, intitolato Intelligenza artificiale e persone: chi servirà chi? risale allo scorso anno. Eppure quello che era solo un pronostico, in molti settori, in soli 12 mesi, si è trasformato in realtà. Il report rivela che sono quattro le categorie più a rischio: chi lavora nell’ambito giudiziario, chi in quello bancario, i sacerdoti e gli psicologi. Tutte mansioni in cui la presenza umana dovrebbe essere l’elemento principale per la buona riuscita del proprio operato.

Giustizia
Solitamente, l’intelligenza artificiale viene utilizzata come strumento di supporto. I magistrati se ne servono per valutare in anticipo, tramite un’analisi statistica, il possibile esito delle cause civili. Si parla di giustizia predittiva. Inoltre, il suo compito è quello di aiutare un avvocato a raccogliere tutti i dati necessari per lo studio di un caso: sentenze simili o articoli del Codice a sostegno della propria tesi legislativa. Assume, così, il ruolo di consulente.
A volte, però, accade che ci si lasci prendere la mano. E, sebbene l’AI non venga “assunta” per sostituire l’uomo, è l’uomo stesso che si fa sostituire dalla stessa. È il caso di un avvocato milanese che, davanti a un giudice del Tribunale di Siracusa, ha depositato quattro sentenze della Cassazione a sostegno della propria difesa. Il problema, però, è che quelle sentenze erano inventate. Erano state prodotte dall’intelligenza artificiale, ma sembravano più vere che mai: presentavano numeri di protocollo, massime giuridiche e richiami normativi inesistenti.
Economia e finanza
Entro il 2030 le banche europee potrebbero tagliare fino a 200.000 posti di lavoro, circa il 10% della forza lavoro, proprio a causa dell’automazione e dell’intelligenza artificiale. È la previsione della banca statunitense Morgan Stanley, poi verificata dal Financial. Secondo alcune stime, a essere maggiormente colpite saranno le attività di back office: analisi dei dati, previsioni, gestione degli investimenti e del rischio, ma anche rilevamento delle frodi e servizio clienti. Questo perché i software vengono applicati agli algoritmi di machine learning, al fine di migliorare l’efficienza, l’accuratezza e la velocità delle attività finanziarie. Non a caso, banche internazionali come JPMorgan, Goldman Sachs e la stessa Morgan Stanley hanno effettuato diversi licenziamenti nel 2025. Mentre investivano miliardi nell’AI.

Psicologia
A essere colpite saranno anche quelle professioni che basano la propria esistenza sul rapporto umano, sul dialogo e sull’ascolto. Nel campo della salute mentale, l’intelligenza artificiale si sostituisce al ruolo dello psicologo. Attraverso una serie di domande strutturate, riconosce i sintomi e aiuta l’utente a capire come gestirli. Senza dover andare in terapia. Per l’Ordine degli psicologi, questo può essere uno strumento utile per individuare forme di disagio. Ma, come ha dichiarato Maria Antonietta Gulino, presidente dell’Ordine degli psicologi della Toscana e del Consiglio nazionale Ordine psicologi (Cnop) si «rischia di alimentare forme di auto-terapia pericolose, in particolare tra i più giovani». Perché l’AI potrebbe sminuire la sofferenza o dare risposte inadeguate a situazioni complesse.
Pratiche religiose
Anche nell’ambito della religione, l’intelligenza artificiale diventa uno strumento utile a dare risposte ai fedeli. Al suo interno ha un archivio di testi sacri a cui attinge per andare incontro alle richieste degli utenti. Ma a volte accade che le persone finiscano per confondere questo supporto con una vera guida spirituale. Addirittura, negli Stati Uniti alcune comunità religiose sono state colpite da casi di deepfake: chatbot e algoritmi impersonavano pastori o predicatori, diffondendo sermoni o richieste di donazioni.
La questione è diventata così concreta da attirare l’attenzione delle istituzioni religiose stesse. Lo scorso 4 marzo la Commissione Teologica Internazionale del Vaticano ha pubblicato un documento, Quo vadis, humanitas? che analizza le sfide poste dall’intelligenza artificiale e ribadisce l’importanza della relazione umana nella fede. Inoltre, Papa Leone XIV ha anche esortato i sacerdoti a non utilizzare l’AI per scrivere omelie, ribadendo che preparare una predica è un esercizio della propria esperienza, intelligenza e responsabilità pastorale.
Artisti sostituiti dall’intelligenza artificiale
«Un giorno ho ascoltato una scena che avevo registrato, ma quella non era la mia voce». È così che Richie Tavake, doppiatore statunitense di 31 anni, ha raccontato al Guardian di aver scoperto che la sua voce era stata ricreata dall’intelligenza artificiale senza il suo consenso. Non è un caso isolato, ma solo uno dei tanti episodi registrati nel mondo della recitazione e del doppiaggio. Perché questa è la via più economica. A Hollywood, in migliaia – tra attori, doppiatori e sceneggiatori – hanno protestato contro i rappresentanti dei produttori cinematografici e televisivi per chiedere la regolamentazione dell’intelligenza artificiale. È per non perdere la propria identità professionale.

A loro si sono uniti anche i cantanti. Nel Regno Unito circa 1.000 artisti, tra cui Kate Bush, Annie Lennox e Damon Albarn, hanno registrato un album muto per denunciare le modifiche proposte dal governo britannico sulle leggi sul copyright legate all’AI. E altri 250 artisti e cantautori statunitensi, tra cui Billie Eilish e Nicki Minaj, hanno firmato una lettera aperta contro l’uso irresponsabile dell’Ai generativa, definendolo un vero e proprio assalto alla creatività umana. La petizione Stop Devaluing Music, promossa dall’organizzazione Artists Rights Alliance, chiede alle aziende tecnologiche e agli sviluppatori di cessare l’uso dell’AI per violare i diritti degli artisti. Anche perché poi succede che una band, come Breaking Rust – che non esiste davvero – riesca a raggiungere con le sue canzoni la vetta nelle classifiche di Spotify e Billboard.
Licenziamenti nelle aziende tech
A subire i danni dell’uso crescente dell’intelligenza artificiale sono soprattutto le aziende che operano nel settore delle tecnologie. L’ultimo caso più eclatante in Italia è quello di InvestCloud Italy, la filiale di Marghera (Venezia) della società tecnologica statunitense attiva nel settore finanziario e fintech. L’azienda, in vista della sua chiusura, ha avviato la procedura di licenziamento di tutti i 37 dipendenti. Perché il gruppo va verso un nuovo modello organizzativo basato sull’AI e «non prevede il mantenimento di strutture locali autonome».
Questo fenomeno non riguarda solo le realtà locali, ma interessa anche i grandi colossi mondiali. Secondo un’inchiesta di Business Insider, tra le società che hanno già adottato questa strategia c’è Amazon, che ha ridotto diverse migliaia di posti nel customer service e in ruoli amministrativi. Proprio come Salesforce. E non da meno è stata la decisione di Crypto.com, che ha tagliato il 12% della forza lavoro per accelerare la trasformazione verso un modello AI-first. Ma questi sono solo alcuni casi, a cui si aggiungono anche altre aziende rilevanti nel settore. Atlassian, Block, Klarna e persino IBM che ha parlato di voler mandare a casa persone che svolgono i ruoli più “tradizionali” per assumere lavoratori specializzati nell’uso dell’intelligenza artificiale.
L’impatto dell’AI sulle persone
I rischi dell’intelligenza artificiale non si limitano al lavoro, ma riguardano sempre più da vicino la vita delle persone. Negli Stati Uniti, i taxi a guida autonoma sono ormai una realtà diffusa, ma non priva di criticità. Tra giugno e metà novembre si sono registrati almeno sette incidenti: a settembre un robotaxi ha urtato un’auto in retromarcia, in un altro episodio ha investito un ciclista – senza gravi conseguenze – e in un terzo ha colpito un animale.

Non si tratta di scenari estremi, ma di normale traffico urbano, proprio il contesto in cui questi sistemi dovrebbero funzionare meglio. Episodi che mettono in dubbio la capacità dei software di interpretare correttamente situazioni complesse. Ancora più grave il caso di una donna americana accusata ingiustamente di frode bancaria da un sistema di riconoscimento facciale. Innocente, ha trascorso quasi tre mesi in carcere prima che l’errore venisse riconosciuto.
Deepfake e fake news
Sul fronte digitale, l’AI sta amplificando fenomeni già preoccupanti. Tra questi i deepfake: contenuti audio, video o immagini manipolati tramite algoritmi che permettono di sostituire volti, voci o movimenti con quelli di altre persone, rendendo il risultato estremamente realistico e difficile da distinguere dal vero. Nati intorno al 2017 e inizialmente legati alla pornografia – con volti di celebrità sovrapposti ai corpi di attori – oggi vengono utilizzati anche per creare falsi discorsi, interviste o eventi mai accaduti, alimentando la disinformazione. Nonostante questa evoluzione, la maggior parte dei deepfake resta di natura pornografica e colpisce soprattutto le donne: il 94% delle vittime appartiene al mondo dell’intrattenimento, ma cresce il numero di persone comuni coinvolte.

Tra i casi più noti, la giornalista e conduttrice Rai Manuela Moreno ha denunciato la diffusione di immagini alterate digitalmente: alcuni utenti hanno caricato foto in cui era vestita su software di AI, chiedendo di “denudarla”, e i risultati sono stati poi pubblicati su gruppi sessisti, aggravando l’umiliazione subita. Parallelamente si diffondono nuove truffe, come quelle basate sulla clonazione vocale: bastano pochi secondi di registrazione – ottenuti anche tramite chiamate automatiche – per ricreare voci realistiche e ingannare familiari o sistemi di sicurezza. L’intelligenza artificiale contribuisce inoltre alla proliferazione di notizie false, attraverso siti apparentemente affidabili ma gestiti da bot e privi di verifica.
L’uso dell’AI in guerra
La guerra non è più soltanto una questione di armi: è anche una questione di algoritmi. In Iran prende forma quella che molti definiscono la prima guerra “AI-first”, segnata da un impiego esteso dell’intelligenza artificiale, dalla pianificazione militare alla propaganda. Il 28 febbraio, nelle prime fasi del conflitto, un missile Tomahawk lanciato dagli Stati Uniti ha colpito un obiettivo sbagliato. Una scuola è crollata causando circa 175 vittime, in gran parte bambine. Secondo le ricostruzioni, l’edificio sarebbe finito nel mirino perché costruito su un’area un tempo appartenente a un complesso navale adiacente, ritenuto un target militare. Tra le ipotesi al vaglio c’è un errore legato all’uso di sistemi di intelligenza artificiale. Il Pentagono ha confermato il ricorso all’AI nel conflitto. Tecnologie simili, capaci di moltiplicare rapidamente gli obiettivi da colpire, erano già state utilizzate da Israele nella Striscia di Gaza, suscitando forti polemiche.