Dopo una maratona di 72 ore di dibattito, i legislatori dell’Unione Europea hanno raggiunto un accordo storico sul suo ampio disegno di legge legato allo sviluppo sicuro delle IA con l’AI Act, il più ampio e di vasta portata nel suo genere fino ad oggi.
“Questa legislazione rappresenterà uno standard, un modello, per molte altre giurisdizioni là fuori“, ha detto Dragoș Tudorache, un parlamentare rumeno che ha co-guidato i negoziati sull’AI Act, “il che significa che dobbiamo avere un ulteriore dovere di fate attenzione quando lo redigiamo perché influenzerà molti altri.”
L’AI Act prevede quattro categorie di IA a seconda del rischio sociale
Le normative proposte con l’AI Act determinerebbero le modalità con cui i futuri modelli di apprendimento automatico potrebbero essere sviluppati e distribuiti all’interno del blocco commerciale, influenzando il loro utilizzo in applicazioni che vanno dall’istruzione, all’occupazione, alla sanità. Lo sviluppo dell’intelligenza artificiale verrebbe suddiviso in quattro categorie a seconda del rischio sociale che ciascuna di esse potenzialmente comporta: minimo, limitato, elevato e vietato.
Gli usi vietati includerebbero tutto ciò che elude la volontà dell’utente, prende di mira gruppi sociali protetti o fornisce tracciamento biometrico in tempo reale (come il riconoscimento facciale). Gli usi ad alto rischio includono qualsiasi cosa “destinata a essere utilizzata come componente di sicurezza di un prodotto” o che deve essere utilizzata in applicazioni definite come infrastrutture critiche, istruzione, questioni legali/giudiziarie e assunzione di dipendenti.
Chatbot come ChatGPT, Bard e Copilot rientrerebbero nella metrica del “rischio limitato”.
“La Commissione europea ancora una volta si è fatta avanti in modo coraggioso per affrontare la tecnologia emergente, proprio come aveva fatto con la privacy dei dati attraverso il GDPR“, ha detto a Engadget nel 2021 la dott.ssa Brandie Nonnecke, direttrice del CITRIS Policy Lab presso l’UC Berkeley. “La proposta di regolamento è piuttosto interessante in quanto affronta il problema con un approccio basato sul rischio“, simile a quanto suggerito nel quadro normativo sull’IA proposto dal Canada.
Francia, Germania e Italia sono stati i Paesi più dubbiosi sulle regole dell’AI Act
I negoziati in corso sulle norme proposte per l’AI Act sono stati interrotti nelle ultime settimane da Francia, Germania e Italia. Stavano ostacolando i discorsi sulle regole che guidano il modo in cui i paesi membri dell’UE potrebbero sviluppare modelli LLM, IA generalizzate da cui è possibile mettere a punto applicazioni più specializzate.
GPT-4 di OpenAI e Google Gemini sono due di questi modelli fondamentali, poiché ChatGPT, Bard e altre applicazioni di terze parti sono tutte addestrate dalle sue funzionalità di base. I tre paesi temevano che le rigorose normative UE sui modelli di intelligenza artificiale generativa potessero ostacolare gli sforzi dei paesi membri per svilupparli in modo competitivo.
L’Unione Europea lavora alla regolamentazione della IA da diverso tempo
La CE aveva già affrontato le crescenti sfide legate alla gestione delle tecnologie di intelligenza artificiale emergenti attraverso una serie di sforzi, pubblicando sia la prima strategia europea sull’intelligenza artificiale che il piano coordinato sull’intelligenza artificiale nel 2018, seguiti dalle linee guida per un’intelligenza artificiale affidabile nel 2019. L’anno successivo, la Commissione ha pubblicato un White Paper sull’intelligenza artificiale e una relazione sulle implicazioni in materia di sicurezza e responsabilità dell’intelligenza artificiale, dell’Internet delle cose e della robotica.
“L’intelligenza artificiale non dovrebbe essere fine a se stessa, ma uno strumento al servizio delle persone con l’obiettivo finale di aumentare il benessere umano“, ha scritto la Commissione europea nella sua bozza di regolamento sull’IA. “Le norme sull’intelligenza artificiale disponibili nel mercato dell’Unione o che incidono in altro modo sui cittadini dell’Unione dovrebbero quindi mettere le persone al centro (essere incentrate sull’uomo), in modo che possano avere fiducia che la tecnologia venga utilizzata in modo sicuro e conforme alla legge , compreso il rispetto dei diritti fondamentali.”
“Allo stesso tempo, tali regole per l’intelligenza artificiale dovrebbero essere equilibrate, proporzionate e non limitare o ostacolare inutilmente lo sviluppo tecnologico“, ha continuato. “Ciò è di particolare importanza perché, sebbene l’intelligenza artificiale sia già presente in molti aspetti della vita quotidiana delle persone, non è possibile anticipare tutti i possibili usi o applicazioni che potrebbero verificarsi in futuro.”
La UE cerca collaborazione anche dalle Big Tech
Oltre all’AI Act, la CE ha iniziato a collaborare con i membri del settore su base volontaria per elaborare regole interne che consentano alle aziende e ai regolatori di operare secondo le stesse regole di base concordate. “L’amministratore delegato di Google, Sundar Pichai e io abbiamo convenuto che non possiamo permetterci di aspettare fino a quando la regolamentazione sull’intelligenza artificiale non diventi effettivamente applicabile e di collaborare con tutti gli sviluppatori di intelligenza artificiale per sviluppare già un patto sull’intelligenza artificiale su base volontaria prima della scadenza legale,” ha affermato il capo della CE, Thierry Breton, in una dichiarazione di maggio.
La CE ha avviato discussioni simili anche con aziende con sede negli Stati Uniti