Dopo il DMA e il DSA, il 2 febbraio 2024, gli Stati membri dell’UE hanno approvato l’AI Act volto a promuovere lo sviluppo sicuro dell’intelligenza artificiale (AI), con particolare attenzione alla mitigazione dei “rischi inaccettabili” associati alle tecnologie di intelligenza artificiale.
L’intelligenza artificiale è oggetto di discussione da oltre un anno ormai, con strumenti come ChatGPT, Google Bard (Gemini ormai) e Microsoft Copilot che minacciano di sconvolgere gran parte della società digitale come la conosciamo. Con questi grandi rischi e il potenziale di deepfake, contenuti generati automaticamente e altro ancora, l’Unione Europea ritiene che la legislazione sull’IA sia necessaria per salvaguardarne lo sviluppo senza danneggiare gli utenti. Questa legislazione è stata presentata per la prima volta tre anni fa, con l’obiettivo di stabilire uno standard globale per la tecnologia.
L’AI Act ha dovuto affrontare forti opposizioni, in particolare da parte della Francia, sede di Mistral AI, una società che sta emergendo come formidabile rivale di OpenAI. La resistenza della Francia è attribuita alle preoccupazioni sul mantenimento della competitività nel settore dell’intelligenza artificiale. Allo stesso modo, Germania e Italia hanno espresso riserve sulla legislazione, sostenendo invece “codici di condotta volontari” per migliorare l’alfabetizzazione sull’IA tra le persone coinvolte nello sviluppo, nel funzionamento e nell’applicazione dell’IA. Questo approccio suggerisce una preferenza per linee guida più flessibili rispetto a regolamenti più rigorosi in alcune aree.
Tutti i paesi inizialmente contrari alla legislazione hanno ora acconsentito, dopo negoziati e compromessi. La Francia, ad esempio, ha ritirato le sue obiezioni dopo aver ricevuto assicurazioni che la legislazione avrebbe bilanciato la trasparenza con la protezione dei segreti aziendali, a vantaggio di aziende come Mistral AI e Aleph Alpha in Germania. Questo adeguamento consente a queste aziende di competere in modo efficace, come la concorrenza di Mistral AI con OpenAI, senza ostacoli normativi significativi da parte delle autorità europee.
Cosa è proibito in UE con l’AI Act
Ci sono pochissime cose che sono completamente proibite dall’Unione Europea quando si tratta di intelligenza artificiale, e riguardano principalmente le grandi aziende e le autorità, piuttosto che i singoli utenti privati. L’UE afferma che devono garantire un uso etico e proteggere le persone dai danni. Vieta i sistemi di intelligenza artificiale che utilizzano tecniche subliminali per alterare il comportamento, sfruttare le vulnerabilità di gruppi specifici e l’uso improprio dell’identificazione biometrica in tempo reale negli spazi pubblici da parte delle forze dell’ordine, tranne che in condizioni strettamente necessarie. Alcuni usi richiederanno anche l’approvazione del tribunale.
L’articolo 5 dell’AI Act vieta espressamente:
- Sistemi di intelligenza artificiale manipolativa: intelligenza artificiale che impiega la manipolazione subliminale causando danni o sfruttando le vulnerabilità degli individui.
- IA sfruttatrice: IA rivolta a gruppi vulnerabili, inclusi bambini e persone disabili, per distorcere materialmente il comportamento.
- Identificazione biometrica in tempo reale: l’uso dell’intelligenza artificiale per l’identificazione biometrica in tempo reale negli spazi pubblici da parte delle autorità, salvo eccezioni per minacce specifiche e sostanziali.
- Punteggio sociale: sistemi di intelligenza artificiale che consentono ai governi o ad altri enti di assegnare un punteggio agli individui in base al loro comportamento o alle caratteristiche personali.
Alcuni altri tipi di usi dell’IA considerati “ad alto rischio” dovranno essere registrati in un database dell’UE. Questi includono:
- Gestione e funzionamento delle infrastrutture critiche
- Istruzione e formazione professionale
- Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
- Accesso e godimento dei servizi privati essenziali e dei servizi e benefici pubblici
- Applicazione della legge
- Gestione della migrazione, dell’asilo e del controllo delle frontiere
- Assistenza nell’interpretazione giuridica e nell’applicazione della legge.
Questi dovranno essere valutati prima di essere immessi sul mercato e dovranno essere valutati regolarmente anche durante il loro ciclo di vita.
Quando entrerà in vigore
L’AI Act consente alle nazioni dell’UE di modellarne l’applicazione attraverso circa 20 atti legislativi secondari da parte della Commissione. L’AI Office dell’UE, composto da esperti degli Stati membri, supervisionerà i modelli di IA. Le tappe fondamentali includono l’adozione del regolamento sull’IA da parte delle commissioni del Parlamento europeo il 13 febbraio e un voto provvisorio in plenaria il 10 e 11 aprile. Dopo l’approvazione ministeriale, la legge entra in vigore 20 giorni dopo la pubblicazione sulla gazzetta ufficiale.
I divieti verranno attivati in sei mesi, i requisiti del modello di IA in un anno, le altre normative in due anni, con le valutazioni del sistema di IA di terze parti rinviate di un ulteriore anno.