Il razzismo delle AI bandito dall’Europa con l‘AI Act. Ma un qualcosa di assolutamente razionale come l’intelligenza artificiale (AI) può effettivamente discriminare e diventare razzista? Dipende dai dati e dagli scopi con cui – e per cui – viene addestrata.
Dal monitoraggio dei cittadini fino alla creazione di opere artistiche, le AI possono infatti essere innocue e pericolose al tempo stesso. Tutto a seconda degli utilizzi che ne fa l’uomo. Benefiche o distopiche, a seconda del governo e delle leggi che ne monitorano l’utilizzo. Vediamo come sta agendo l’Europa attraverso le parole degli ospiti di “L’intelligenza delle regole”, la conferenza del Corriere della Sera che si è svolta il 19 dicembre a Milano.
L’AI Act, la norma per il futuro
Dopo tre giorni di negoziati intensi – con sedute lunghe quasi 22 ore, come riporta Brando Benifei, onorevole co-relatore del Parlamento europeo per l’AI Act – l’Europa ha raggiunto un accordo.
Lo scorso 8 dicembre 2023, L’Unione europea ha formalizzato il testo del Regolamento Europeo sull’Intelligenza Artificiale, meglio noto come AI Act.
«Il Parlamento europeo ha difeso fino all’ultimo con un negoziato molto duro i valori fondanti dell’Unione Europea, quindi la dignità della persona», ha commentato Carlo Corazza, capo dell’Ufficio in Italia del Parlamento europeo, «saremo il benchmark per gli altri legislatori mondiali». Non tutte le zone del mondo possono contare sulla stessa coesione. Lo stesso Benifei fa notare che qualcosa del genere sarebbe impensabile in Sudamerica, dove non c’è lo stesso tipo di unione tra le nazioni. Ma il discorso passa anche dall’economia.
Le AI che discriminano
«Il mercato europeo, che è il più grande del mondo, è la nostra forza, il motivo per cui riusciamo a fare queste regole», afferma l’onorevole Benifei. «Quello che dobbiamo evitare è il rischio di una frammentazione».
La possibilità di far fronte comune contro i giganti della tecnologia ha avuto un ruolo nella forza con cui l’Europa ha saputo varare delle normative così stringenti. «Mettiamo delle regole, il che vuol dire multe, il che vuol dire togliere dal mercato prodotti che non le rispettano», dichiara Bonafei.
«Significa che cittadini e imprese possono rivolgersi alle autorità di supervisione per denunciare che il loro diritto sia stato violato». E significa che le intelligenze artificiali devono sottostare ad alcuni parametri di equità e il loro addestramento deve essere monitorato e approvato da un supervisore governativo.
Il razzismo delle AI
Anche le AI possono infatti essere suscettibili al razzismo e ai pregiudizi tipici degli uomini. Lo stesso Benifei porta numerosi esempi pratici. «Può accadere che un sistema d’intelligenza artificiale non abbia una gestione sicura dei dati di pazienti ospedalizzati o altri dati ipersensibili», fa notare.
«Oppure un sistema di selezione dei curriculum che ha imparato a discriminare. Tutto perché i dati con cui si addestra non sono appropriati. E quindi ha imparato che le donne o le persone non bianche per lavori di un certo livello andrebbero scartate a prescindere», continua l’onorevole. L’irrazionalità della razionalità assoluta, insomma. Con la legge europea che porta un po’ di etica nella progettazione delle macchine che potrebbero plasmare il nostro futuro.