La supervisione dell’IA del Regno Unito includerà la possibilità di studiare direttamente la tecnologia di alcune aziende. In un discorso alla London Tech Week, il primo ministro Rishi Sunak ha rivelato che Google DeepMind, OpenAI e Anthropic si sono impegnati a fornire “accesso anticipato o prioritario” ai modelli di IA generativa per motivi di ricerca e sicurezza. Ciò migliorerà idealmente le ispezioni di questi modelli e aiuterà il governo a riconoscere “opportunità e rischi”, afferma Sunak.
Non è chiaro quali dati le aziende tecnologiche condivideranno con il governo del Regno Unito. Sono stati chiesti dei commenti a Google, OpenAI e Anthropic ma senza ricevere risposta.
L’annuncio arriva settimane dopo che i funzionari hanno dichiarato che avrebbero condotto una valutazione iniziale della responsabilità, della sicurezza, della trasparenza e di altri problemi etici dei modelli di IA generativa. L’Autorità nazionale per la concorrenza e i mercati dovrebbe svolgere un ruolo chiave.
Il Regno Unito si è anche impegnato a spendere un importo iniziale di 100 milioni di sterline (circa 125 milioni di euro) per creare una task force che svilupperà un’IA “sovrana” destinata a far crescere l’economia britannica riducendo al minimo i problemi etici e tecnici.
La IA generativa rappresenta il vaso di Pandora
I leader del settore e gli esperti hanno chiesto un’interruzione temporanea dello sviluppo dell’IA a causa delle preoccupazioni che i creatori stanno portando avanti senza una sufficiente considerazione per la sicurezza. I modelli di intelligenza artificiale generativa come GPT-4 di OpenAI e Claude di Anthropic sono stati elogiati per il loro potenziale, ma hanno anche sollevato preoccupazioni su imprecisioni, disinformazione e abusi come l’imbroglio.
La mossa del Regno Unito teoricamente limita questi problemi e cattura i modelli problematici prima che abbiano fatto molti danni.
Ciò non garantisce necessariamente al Regno Unito l’accesso completo a questi modelli e al codice sottostante. Allo stesso modo, non ci sono garanzie che il governo coglierà ogni questione importante. Tuttavia, l’accesso può fornire approfondimenti pertinenti. Se non altro, lo sforzo promette una maggiore trasparenza per l’IA in un momento in cui l’impatto a lungo termine di questi sistemi non è del tutto chiaro.