AI Act: l’UE indica nuove regole sul copyright per le AI generative

Dopo anni di attesa l’AI Act, la normativa europea sulle intelligenze artificiali (AI) dovrebbe essere introdotta a breve. La normativa – che potrebbe entrare in vigore già entro la prima metà del 2023 – sarà tra le prime leggi al mondo a disciplinare le AI generative.

Immagine prodotta con Midjourney, chiedendogli: “un paesaggio romantico con fiumi e alberi”

Secondo un accordo preliminare dell’UE, le aziende che utilizzano strumenti di intelligenza artificiale generativa come ChatGPT saranno obbligate a divulgare qualsiasi materiale protetto da copyright utilizzato per sviluppare i loro sistemi.

Stando all’agenzia di stampa Reuters, si è trattato di un’aggiunta tardiva alla nuova normativa europea sulle AI. Il supplemento è stato introdotto nelle ultime due settimane, e sarà applicabile anche al generatore d’immagini Midjourney.

Legge sulle AI: origini e contenuti

La Commissione Europea ha iniziato a redigere l’AI Act quasi due anni fa, nel 2021, al fine di regolamentare l’intelligenza artificiale. Nel frattempo la nuova tecnologia ha subito un boom d’investimenti e popolarità, in seguito al rilascio della celebre intelligenza artificiale generativa ChatGPT, ideata dall’azienda di Sam Altman, OpenAI.

I membri del Parlamento europeo hanno concordato di portare la bozza alla fase successiva, il trilogo. Significa che i legislatori e gli Stati membri dell’UE elaboreranno i dettagli finali del disegno di legge.

Secondo la legge, gli strumenti d’intelligenza artificiale saranno classificati in base al livello di rischio percepito. I parametri utilizzati per il giudizio, dovrebbero riguardare:

  • la capacità di operare una sorveglianza biometrica;
  • le potenzialità nella diffusione di disinformazione;
  • La produzione di linguaggio discriminatorio.

Gli strumenti ad alto rischio non saranno vietati, ma coloro che li utilizzano dovranno essere estremamente trasparenti nelle loro operazioni. Oltre agli usi privati delle AI generative, sarnno sotto esame anche le AI utilizzate nel settore pubblico e nelle forze dell’ordine. Gli esempi di disinformazione e deepfake (video o foto con volti di personaggi famosi generati grazie alle AI) sono sotto gli occhi di tutti. Hanno fatto scalpore, di recente, le immagini chiaramente falsate di Papa Francesco che gioca a pallacanestro.

L’AI Act funzionerà in sinergia con altre leggi europee, come il Regolamento Generale sulla Protezione dei Dati (GDPR). In poche parole, tutti coloro che utilizzano sistemi d’intelligenza artificiale per scopi di sorveglianza, per generare contenuti deepfake, testi discriminatori o fake news, saranno soggetti a forti obblighi di trasparenza.

«L’UE è stata sulla frontiera della regolamentazione della tecnologia AI», ha detto Fred Havemeyer, analista del gruppo di servizi finanziari Macquarie. Secondo l’esperto, la proposta dell’UE appare «delicata, piuttosto che un ‘vieta prima e poi fai domande’ proposto da alcuni».

La lettera aperta contro le AI

Poche settimane fa il CEO di Twitter, Elon Musk, ha sostenuto una proposta per interrompere lo sviluppo di sistemi di intelligenza artificiale generativa per sei mesi. Poco tempo dopo aver apposto la propria firma sulla lettera, il Financial Times ha scoperto che Musk stava progettando di lanciare la sua startup  per rivaleggiare con OpenAI.

Il miliardario di origini sudafricane è persino arrivato ad accusare Microsoft di addestrare la sua AI generativa usando illegalmente i dati di Twitter. Proprio il genere di problema che si risolverebbe grazie all’AI Act.

Tra regolamentazione e sviluppo

«Le nuove leggi sull’AI potrebbero promuovere l’innovazione e rilanciare l’economia», afferma Svenja Hahn, deputata del Parlamento europeo. Tuttavia, la corsa tra le aziende tecnologiche per portare sul mercato prodotti con AI generative ha preoccupato alcuni spettatori. ChatGPT è infatti diventata l’applicazione consumer in più rapida crescita nella storia, raggiungendo 100 milioni di utenti attivi mensili nel giro di poche settimane.

L’AI Act non vieta l’utilizzo di strumenti ad alto rischio, ma richiede trasparenza sul loro utilizzo. Le aziende che implementano strumenti di intelligenza artificiale generativa dovranno anche divulgare qualsiasi materiale protetto da copyright utilizzato per sviluppare i loro sistemi. Dovranno cioè indicare quali fonti di dati e informazioni protette da copyright hanno utilizzato per addestrare i loro algoritmi.

Le aziende che operano nel settore dell’intelligenza artificiale dovranno dimostrare la legalità dei materiali utilizzati nei loro sistemi. Tra gli obiettivi della normativa c’è un incoraggiamento indiretto alla creazione di set di dati pubblici utili all’addestramento di algoritmi sempre aggiornati che evitino violazioni del copyright.

L’Eurodeputata Svenja Hahn, tra i maggiori promotori dell’AI Act

Sempre secondo Svenja Hahn, l’AI Act rappresenta «un solido compromesso tra i desideri conservatori di una maggiore sorveglianza e la volontà di un’eccessiva regolamentazione». Il regolamento mira a regolare l’intelligenza artificiale in modo proporzionato, «proteggendo i diritti dei cittadini e incoraggiando l’innovazione».

L’esplosione dell’intelligenza artificiale generativa

Secondo un recente rapporto del McKinsey Global Institute, la regolamentazione dell’intelligenza artificiale potrebbe addirittura aumentare il PIL dell’UE del 5% entro il 2030, se implementata in modo efficace.

«Una regolamentazione equilibrata e basata sui rischi dell’AI potrebbe aumentare la fiducia dei consumatori e degli investitori e promuovere l’innovazione responsabile», ha confidato all’agenzia Reuters Stefano Scarpetta, direttore dell’Organizzazione per la cooperazione e lo sviluppo economico.

C’è il rischio che la definizione di “rischio percepito” – per come viene spiegata nella regolamentazione – sia vaga e suscettibile di abusi da parte delle aziende. La nuova regolamentazione dell’UE sull’intelligenza artificiale rappresenta comunque un passo avanti per la regolamentazione della tecnologia in tutto il mondo.

Se implementata in modo efficace, potrebbe fornire un modello per altre nazioni e organizzazioni che vogliono regolamentare le AI generative in modo responsabile. Nel frattempo i rischi per una corretta informazione rimangono, con le intelligenze artificiali potenzialmente capaci di generare fake news con una verosimiglianza mai raggiunta prima. Ecco un altro esempio del potere del deepfake.

Prospettive future

L’intelligenza artificiale rimane una tecnologia in rapida evoluzione, e le normative dovranno adattarsi continuamente a nuovi sviluppi e sfide. La regolamentazione dell’AI è un processo in corso d’opera, che richiederà una vigilanza costante e degli aggiornamenti continui da parte dei legislatori internazionali.

La tecnologia in sé non è né buona, né cattiva: a essere importante è a maniera in cui è utilizzata. La regolamentazione delle AI generative può certamente fornire una finestra normativa all’interno della quale sia possibile l’uso responsabile della tecnologia. Ma dipenderà dagli utenti e dalle aziende che l’AI generativa sia utilizzata con la giusta etica e in una maniera che possa essere benefica per l’umanità.

 

Ivan Torneo

Giornalista praticante. Siciliano trapiantato a Milano. Motivato, eclettico, curioso. Laurea Magistrale in Scienze Cognitive e Teorie della Comunicazione. Il mio obiettivo è il giornalismo televisivo, la mia motivazione incrollabile.

No Comments Yet

Leave a Reply