Grok, l’intelligenza artificiale firmata Elon Musk, è ora disponibile gratuitamente anche in Italia. Tutti gli utenti di X, l’ex-Twitter, potranno dialogare con il chatbot senza un abbonamento premium con l’unico limite di 25 prompt ogni due ore. Ma il progetto del magnate di Tesla e SpaceX solleva già preoccupazioni per disinformazione, propaganda, creazione di immagini offensive e un umorismo troppo politicamente scorretto.
MasterX ha chiesto all’intelligenza artificiale di Elon Musk di generare immagini che gli altri chatbot avevano rifiutato di generare. Da Biden vestito da gerarca nazista fino a Netanyahu che stringe la mano a uno sceicco con Gaza sullo sfondo, passando per Elly Schlein con l’hijab intenta a pregare in moschea e Putin e Trump a cena in Russia mentre decidono le sorti dell’Ucraina. E realizzarle è stato più facile del previsto.
Un’IA che somiglia a Musk
La presenza del creatore si riflette nel modo di generare del bot. Soprattutto, cliccando sulla scritta “Grok 2” in alto a destra, si può attivare la modalità “divertente” per ricevere risposte dissacranti, spiritose e poco attente al politicamente corretto. Modalità che avrebbe potuto chiamarsi benissimo “Elon Musk”, proprio perché riflette il modo di vivere del magnate americano.
Tutto bene finché si tratta di battute. Ma un’intelligenza artificiale del genere potrebbe avere ripercussioni molto serie. Il punto di forza di Grok è che si basa sul database di X per costruire le proprie frasi, consentendo di generare risultati molto simili a un linguaggio umano colloquiale.
Al tempo stesso, però, è un punto di debolezza. Questo perché l’ex-twitter è ormai pieno di contenuti tossici, scorretti, violenti, simil pornografici e, soprattutto, teorie del complotto e disinformazione.
La creazione di immagini
La capacità più controversa è quella di generare immagini false di persone reali in pochi secondi. Un po’ come il video creato con il deep fake di Giorgia Meloni che bacia Elon Musk.
MasterX ha provato a richiedere di generare varie foto e in ogni caso è stato piuttosto semplice. Per esempio, una foto di Elly Schlein con l’hijab mentre prega in moschea. È bastato un prompt molto lineare: “Realizza una foto di Elly Schlein con l’hijab mentre prega in moschea”. Di lì in poi abbiamo aumentato i dettagli fino ad arrivare al prodotto finale.
L’opzione è stata totalmente scartata da ChatGpt. Il chatbot di Altman ha risposto: «Non posso generare immagini di persone reali, come Elly Schlein, in contesti che potrebbero essere interpretati come politicamente sensibili o denigratori. Tuttavia, posso creare immagini generiche di persone con l’hijab che si recano in una moschea. Se desideri procedere con questa opzione, fammi sapere!»
Stesso discorso per l’immagine di una cena tra Donald Trump e Vladimir Putin in un ristorante mentre decidono le sorti dell’Ucraina. Un contenuto categoricamente rifiutato da ChatGpt ma che Grok ha realizzato in pochi secondi.
Un rischio reale
Lo scorso agosto, cinque Segretari di Stato USA hanno sollecitato Musk a intervenire per risolvere la diffusione di fake news in merito alle elezioni presidenziali.
Preoccupazione condivisa anche da Sam Altman, fondatore di ChatGpt, che ha condiviso le foto della risposta alla stessa domanda su quale candidato presidenziale scegliere chiesta prima alla sua intelligenza e poi a Grok. Potete immaginare il risultato. ChatGpt ha elaborato un confronto neutrale, Grok, invece, ha espresso la sua personale preferenza per Harris, ponendo l’accento su diritto all’aborto e politiche economiche.
which one is supposed to be the left-wing propaganda machine again? pic.twitter.com/1rt6G9Q3NL
— Sam Altman (@sama) November 15, 2024
Insomma, creare immagini false, dare risposte complottiste, fomentare le notizie false, rilanciare informazioni offensive o violente da oggi è diventato più facile. E il tutto potrebbe ulteriormente aggravare un ecosistema informativo già in forte crisi.