Dopo anni di attesa l’AI Act, la normativa europea sulle intelligenze artificiali (AI) dovrebbe essere introdotta a breve. La normativa – che potrebbe entrare in vigore già entro la prima metà del 2023 – sarà tra le prime leggi al mondo a disciplinare le AI generative.
Secondo un accordo preliminare dell’UE, le aziende che utilizzano strumenti di intelligenza artificiale generativa come ChatGPT saranno obbligate a divulgare qualsiasi materiale protetto da copyright utilizzato per sviluppare i loro sistemi.
Stando all’agenzia di stampa Reuters, si è trattato di un’aggiunta tardiva alla nuova normativa europea sulle AI. Il supplemento è stato introdotto nelle ultime due settimane, e sarà applicabile anche al generatore d’immagini Midjourney.
Legge sulle AI: origini e contenuti
La Commissione Europea ha iniziato a redigere l’AI Act quasi due anni fa, nel 2021, al fine di regolamentare l’intelligenza artificiale. Nel frattempo la nuova tecnologia ha subito un boom d’investimenti e popolarità, in seguito al rilascio della celebre intelligenza artificiale generativa ChatGPT, ideata dall’azienda di Sam Altman, OpenAI.
I membri del Parlamento europeo hanno concordato di portare la bozza alla fase successiva, il trilogo. Significa che i legislatori e gli Stati membri dell’UE elaboreranno i dettagli finali del disegno di legge.
There is no point in stopping #ArtificialIntelligence developments like #ChatGPT. #AI is already here, everywhere.
Rather, we must set the right guardrails for all high risk use cases of AI, including #ChatGPT.
👉That’s the whole point of the #AI Act.@OpenAI pic.twitter.com/haAm7SGmom
— Margrethe Vestager (@vestager) April 20, 2023
Secondo la legge, gli strumenti d’intelligenza artificiale saranno classificati in base al livello di rischio percepito. I parametri utilizzati per il giudizio, dovrebbero riguardare:
- la capacità di operare una sorveglianza biometrica;
- le potenzialità nella diffusione di disinformazione;
- La produzione di linguaggio discriminatorio.
Gli strumenti ad alto rischio non saranno vietati, ma coloro che li utilizzano dovranno essere estremamente trasparenti nelle loro operazioni. Oltre agli usi privati delle AI generative, sarnno sotto esame anche le AI utilizzate nel settore pubblico e nelle forze dell’ordine. Gli esempi di disinformazione e deepfake (video o foto con volti di personaggi famosi generati grazie alle AI) sono sotto gli occhi di tutti. Hanno fatto scalpore, di recente, le immagini chiaramente falsate di Papa Francesco che gioca a pallacanestro.
People act like they don’t want to see an AI generated picture of an alien holding a basketball but they are sleeping. pic.twitter.com/5DnFZ49DcO
— Taco Trey Kerby (@treykerby) April 21, 2023
L’AI Act funzionerà in sinergia con altre leggi europee, come il Regolamento Generale sulla Protezione dei Dati (GDPR). In poche parole, tutti coloro che utilizzano sistemi d’intelligenza artificiale per scopi di sorveglianza, per generare contenuti deepfake, testi discriminatori o fake news, saranno soggetti a forti obblighi di trasparenza.
«L’UE è stata sulla frontiera della regolamentazione della tecnologia AI», ha detto Fred Havemeyer, analista del gruppo di servizi finanziari Macquarie. Secondo l’esperto, la proposta dell’UE appare «delicata, piuttosto che un ‘vieta prima e poi fai domande’ proposto da alcuni».
La lettera aperta contro le AI
Poche settimane fa il CEO di Twitter, Elon Musk, ha sostenuto una proposta per interrompere lo sviluppo di sistemi di intelligenza artificiale generativa per sei mesi. Poco tempo dopo aver apposto la propria firma sulla lettera, il Financial Times ha scoperto che Musk stava progettando di lanciare la sua startup per rivaleggiare con OpenAI.
Il miliardario di origini sudafricane è persino arrivato ad accusare Microsoft di addestrare la sua AI generativa usando illegalmente i dati di Twitter. Proprio il genere di problema che si risolverebbe grazie all’AI Act.
🚨BREAKING:
Elon Musk says a lawsuit may be coming for Microsoft / OpenAI for illegally using Twitter data to train models.
First the Open letter, then TruthGPT, now this. The AI wars have just begun. pic.twitter.com/XqMHzHwM2i
— Rowan Cheung (@rowancheung) April 19, 2023
Tra regolamentazione e sviluppo
«Le nuove leggi sull’AI potrebbero promuovere l’innovazione e rilanciare l’economia», afferma Svenja Hahn, deputata del Parlamento europeo. Tuttavia, la corsa tra le aziende tecnologiche per portare sul mercato prodotti con AI generative ha preoccupato alcuni spettatori. ChatGPT è infatti diventata l’applicazione consumer in più rapida crescita nella storia, raggiungendo 100 milioni di utenti attivi mensili nel giro di poche settimane.
L’AI Act non vieta l’utilizzo di strumenti ad alto rischio, ma richiede trasparenza sul loro utilizzo. Le aziende che implementano strumenti di intelligenza artificiale generativa dovranno anche divulgare qualsiasi materiale protetto da copyright utilizzato per sviluppare i loro sistemi. Dovranno cioè indicare quali fonti di dati e informazioni protette da copyright hanno utilizzato per addestrare i loro algoritmi.
Le aziende che operano nel settore dell’intelligenza artificiale dovranno dimostrare la legalità dei materiali utilizzati nei loro sistemi. Tra gli obiettivi della normativa c’è un incoraggiamento indiretto alla creazione di set di dati pubblici utili all’addestramento di algoritmi sempre aggiornati che evitino violazioni del copyright.
Sempre secondo Svenja Hahn, l’AI Act rappresenta «un solido compromesso tra i desideri conservatori di una maggiore sorveglianza e la volontà di un’eccessiva regolamentazione». Il regolamento mira a regolare l’intelligenza artificiale in modo proporzionato, «proteggendo i diritti dei cittadini e incoraggiando l’innovazione».
L’esplosione dell’intelligenza artificiale generativa
Secondo un recente rapporto del McKinsey Global Institute, la regolamentazione dell’intelligenza artificiale potrebbe addirittura aumentare il PIL dell’UE del 5% entro il 2030, se implementata in modo efficace.
«Una regolamentazione equilibrata e basata sui rischi dell’AI potrebbe aumentare la fiducia dei consumatori e degli investitori e promuovere l’innovazione responsabile», ha confidato all’agenzia Reuters Stefano Scarpetta, direttore dell’Organizzazione per la cooperazione e lo sviluppo economico.
C’è il rischio che la definizione di “rischio percepito” – per come viene spiegata nella regolamentazione – sia vaga e suscettibile di abusi da parte delle aziende. La nuova regolamentazione dell’UE sull’intelligenza artificiale rappresenta comunque un passo avanti per la regolamentazione della tecnologia in tutto il mondo.
Se implementata in modo efficace, potrebbe fornire un modello per altre nazioni e organizzazioni che vogliono regolamentare le AI generative in modo responsabile. Nel frattempo i rischi per una corretta informazione rimangono, con le intelligenze artificiali potenzialmente capaci di generare fake news con una verosimiglianza mai raggiunta prima. Ecco un altro esempio del potere del deepfake.
Incredibles example of DeepFake by #Ai
— Abdullah Hamad (@Abdullah_Hamad) April 25, 2023
Prospettive future
L’intelligenza artificiale rimane una tecnologia in rapida evoluzione, e le normative dovranno adattarsi continuamente a nuovi sviluppi e sfide. La regolamentazione dell’AI è un processo in corso d’opera, che richiederà una vigilanza costante e degli aggiornamenti continui da parte dei legislatori internazionali.
La tecnologia in sé non è né buona, né cattiva: a essere importante è a maniera in cui è utilizzata. La regolamentazione delle AI generative può certamente fornire una finestra normativa all’interno della quale sia possibile l’uso responsabile della tecnologia. Ma dipenderà dagli utenti e dalle aziende che l’AI generativa sia utilizzata con la giusta etica e in una maniera che possa essere benefica per l’umanità.