La privacy e la protezione dei dati non sono più un lusso, ma un diritto sempre più sentito in un mondo digitalizzato. È in questo contesto che il Garante italiano per la protezione dei dati (GDPR) il 22 maggio ha annunciato di voler continuare le indagini sulle intelligenze artificiali (AI), rivolgendo l’attenzione anche a tutte le altre piattaforme operative nel nostro Paese.
L’occhio vigile del Garante
Il Garante italiano per la protezione dei dati ha annunciato la sua intenzione di esaminare ulteriori piattaforme di intelligenza artificiale. La mossa segue l’azione decisiva intrapresa in precedenza contro ChatGPT, un potente bot di chat creato da OpenAI e supportato da Microsoft con un investimento di oltre 10 miliardi. L’AI venne vietata a marzo per sospetta violazione delle regole sulla privacy.
In Italia il Garante è l’entità che sovrintende il regime di privacy. Si tratta di una delle 31 autorità nazionali per la protezione dei dati. È stato il primo a vietare la società di chatbot AI Replika, a infliggere multe a Clearview AI, produttore di software di riconoscimento facciale, e a limitare le operazioni di TikTok in Europa.
«Abbiamo in programma di avviare una revisione ad ampio raggio delle applicazioni di intelligenza artificiale generative e di apprendimento automatico disponibili online», ha dichiarato in esclusiva all’agenzia di stampa Reuters Agostino Ghiglia, membro del consiglio di amministrazione del Garante.
Il caso ChatGPT
Nell’ambito delle sue operazioni, il Garante aveva vietato l’utilizzo di ChatGPT. Un’azione che ha risuonato in tutto il mondo tecnologico, attirando l’attenzione sui potenziali problemi di privacy associati all’AI. La decisione è stata presa in seguito a un’indagine che ha rivelato presunte violazioni delle leggi sulla privacy da parte dell’applicazione, al tempo disponibile solo in versione desktop, e oggi anche in versione app per gli utenti statunitensi.
Introducing the ChatGPT app for iOS! We’re live in the US and will expand to additional countries in the coming weeks. Android is next! https://t.co/p3PfTtxL9i
— OpenAI (@OpenAI) May 18, 2023
Dopo l’intervento del Garante, OpenAI – azienda madre di ChatGPT – ha apportato modifiche al suo chatbot per riottenere la conformità. A dimostrazione del fatto che le autorità possano utilizzare le leggi esistenti per regolare una tecnologia che sta rapidamente cambiando molti aspetti della vita di tutti.
Un futuro con l’AI sotto controllo
Complice forse il successo iniziale di ChatGPT, le AI continuano a evolversi a ritmi vertiginosi, con giganti tecnologici del calibro di Alphabet Inc. e Meta che cercano di sviluppare le proprie versioni. La regolamentazione delle intelligenze artificiali potrebbe richiedere anni per essere implementata a livello globale. Il che sottolinea l’importanza di un’azione rapida da parte delle autorità di regolamentazione, come nel caso dell’europa col suo AI Act.
G7 calls for adoption of international technical standards for AI https://t.co/HFBSyJm0A0 pic.twitter.com/dXAYIA5Jv8
— Reuters (@Reuters) May 20, 2023
Il Garante, consapevole della mole di lavoro, si è messo alla ricerca di personale preparato. «Stiamo cercando tre consulenti d’intelligenza artificiale. Siamo consapevoli che gli strumenti di intelligenza artificiale si stanno evolvendo molto rapidamente e abbiamo bisogno di esperti con esperienza tecnologica che ci aiutino nella nostra attività di protezione dei dati», ha aggiunto Ghiglia.
Il Collegio del Garante, composto da quattro membri, è in gran parte formato da giuristi. L’agenzia conta 144 dipendenti, un numero esiguo rispetto ai colleghi europei in Francia, Spagna e Gran Bretagna. Ma la mancanza di numeri non ha impedito al Garante di intraprendere diverse azioni incisive in passato.
Nuove frontiere, stessi diritti
Il Garante ha già fatto uso di alcune leggi vigenti. Come quelle che proteggono i minori e garantiscono agli individui il diritto di richiedere la cancellazione e di opporsi all’utilizzo dei propri dati personali. L’approccio rafforza l’idea che la protezione dei diritti fondamentali degli individui rimanga una priorità a prescindere dalla velocità dello sviluppo di una tecnologia.
«I membri del consiglio del Garante vengono a conoscenza di potenziali violazioni delle leggi sulla privacy perché esplorano strumenti e applicazioni digitali una volta che sono disponibili», ha spiegato Ghiglia. Questa proattività è da sempre essenziale per garantire la protezione dei dati in un mondo in rapido mutamento. Anche gli Stati Uniti fanno fatica a tenere il passo dal punto di vista legale e istituzionale, come dimostrano le varie audizioni in Senato susseguitesi nelle scorse settimane.
Senator Lindsey Graham asks the witnesses at the hearing on artificial intelligence regulation if there should be an agency to license and oversee AI tools.
All say yes, but IBM Chief Privacy & Trust Officer Christina Montgomery has stipulations: pic.twitter.com/UD7R8N7s23
— Yahoo Finance (@YahooFinance) May 16, 2023
L’attesa di una legislazione specifica
Mentre il mondo rimane in attesa delle nuove legislazioni che regolino le AI, il Garante non ha esitato a usare le leggi esistenti per proteggere i dati personali. «Ecco perché abbiamo deciso di agire rapidamente con ChatGPT», ha concluso Ghiglia. Una mossa che ha mandato un chiaro messaggio: la privacy non può essere compromessa, nemmeno dall’intelligenza artificiale.