Abbiamo chiesto a Grok, IA di Elon Musk, di generare queste immagini fake

Grok, l’intelligenza artificiale firmata Elon Musk, è ora disponibile gratuitamente anche in Italia. Tutti gli utenti di X, l’ex-Twitter, potranno dialogare con il chatbot senza un abbonamento premium con l’unico limite di 25 prompt ogni due ore. Ma il progetto del magnate di Tesla e SpaceX solleva già preoccupazioni per disinformazione, propaganda, creazione di immagini offensive e un umorismo troppo politicamente scorretto.

MasterX ha chiesto all’intelligenza artificiale di Elon Musk di generare immagini che gli altri chatbot avevano rifiutato di generare. Da Biden vestito da gerarca nazista fino a Netanyahu che stringe la mano a uno sceicco con Gaza sullo sfondo, passando per Elly Schlein con l’hijab intenta a pregare in moschea e Putin e Trump a cena in Russia mentre decidono le sorti dell’Ucraina. E realizzarle è stato più facile del previsto.

L’Immagine finta di Netanyahu che stringe la mano a uno sceicco con sullo sfondo Gaza.
Un’IA che somiglia a Musk

La presenza del creatore si riflette nel modo di generare del bot. Soprattutto, cliccando sulla scritta “Grok 2” in alto a destra, si può attivare la modalità “divertente” per ricevere risposte dissacranti, spiritose e poco attente al politicamente corretto. Modalità che avrebbe potuto chiamarsi benissimo “Elon Musk”, proprio perché riflette il modo di vivere del magnate americano.

Tutto bene finché si tratta di battute. Ma un’intelligenza artificiale del genere potrebbe avere ripercussioni molto serie. Il punto di forza di Grok è che si basa sul database di X per costruire le proprie frasi, consentendo di generare risultati molto simili a un linguaggio umano colloquiale.

Al tempo stesso, però,  è un punto di debolezza. Questo perché l’ex-twitter è ormai pieno di contenuti tossici, scorretti, violenti, simil pornografici e, soprattutto, teorie del complotto e disinformazione.

L’immagine generata da Grok di Joe Biden vestito da gerarca Nazista.
La creazione di immagini

La capacità più controversa è quella di generare immagini false di persone reali in pochi secondi. Un po’ come il video creato con il deep fake di Giorgia Meloni che bacia Elon Musk.

MasterX ha provato a richiedere di generare varie foto e in ogni caso è stato piuttosto semplice. Per esempio, una foto di Elly Schlein con l’hijab mentre prega in moschea. È bastato un prompt molto lineare: “Realizza una foto di Elly Schlein con l’hijab mentre prega in moschea”. Di lì in poi abbiamo aumentato i dettagli fino ad arrivare al prodotto finale.

Le foto di Elly Schlein generate da Grok.

L’opzione è stata totalmente scartata da ChatGpt. Il chatbot di Altman ha risposto: «Non posso generare immagini di persone reali, come Elly Schlein, in contesti che potrebbero essere interpretati come politicamente sensibili o denigratori. Tuttavia, posso creare immagini generiche di persone con l’hijab che si recano in una moschea. Se desideri procedere con questa opzione, fammi sapere!»

La risposta di ChatGpt alla richiesta di generare la foto di Elly Schlein.

 

Stesso discorso per l’immagine di una cena tra Donald Trump e Vladimir Putin in un ristorante mentre decidono le sorti dell’Ucraina. Un contenuto categoricamente rifiutato da ChatGpt ma che Grok ha realizzato in pochi secondi.

Le foto di Donald Trump e Vladimir Putin a cena generate da Grok.
Un rischio reale

Lo scorso agosto, cinque Segretari di Stato USA hanno sollecitato Musk a intervenire per risolvere la diffusione di fake news in merito alle elezioni presidenziali.

Preoccupazione condivisa anche da Sam Altman, fondatore di ChatGpt, che ha condiviso le foto della risposta alla stessa domanda su quale candidato presidenziale scegliere chiesta prima alla sua intelligenza e poi a Grok. Potete immaginare il risultato. ChatGpt ha elaborato un confronto neutrale, Grok, invece, ha espresso la sua personale preferenza per Harris, ponendo l’accento su diritto all’aborto e politiche economiche.

Insomma, creare immagini false, dare risposte complottiste, fomentare le notizie false, rilanciare informazioni offensive o violente da oggi è diventato più facile. E il tutto potrebbe ulteriormente aggravare un ecosistema informativo già in forte crisi.

Ettore Saladini

Laureato in Relazioni Internazionali e Sicurezza alla LUISS di Roma con un semestre in Israele alla Reichman University (Tel Aviv). Mi interesso di politica internazionale, terrorismo, politica interna e cultura. Nel mio Gotha ci sono gli Strokes, Calcutta, Martin Eden, Conrad, Moshe Dayan, Jung e Wes Anderson.

No Comments Yet

Leave a Reply