OpenAI, Google, Anthropic e altre società che sviluppano intelligenza artificiale generativa continuano a migliorare le loro tecnologie e a rilasciare modelli linguistici di grandi dimensioni sempre migliori. Al fine di creare un approccio comune per una valutazione indipendente sulla sicurezza dell’IA generativa e sui modelli LLM non appena usciranno sul mercato, i governi del Regno Unito e degli Stati Uniti hanno firmato un memorandum d’intesa. Insieme, l’AI Safety Institute del Regno Unito e la sua controparte negli Stati Uniti, annunciato dal vicepresidente Kamala Harris ma che deve ancora iniziare le operazioni, svilupperanno suite di test per valutare i rischi e garantire la sicurezza dei “modelli di IA generativa più avanzati”.
Agire in fretta perché la prossima generazione di IA generativa sarà ancora più potente
Stanno progettando di condividere conoscenze tecniche, informazioni e persino personale come parte della partnership, e uno dei loro obiettivi iniziali sembra essere quello di eseguire un esercizio di test congiunto su un modello accessibile al pubblico. Il ministro della scienza britannico Michelle Donelan, che ha firmato l’accordo, ha dichiarato al The Financial Times che è necessario “agire davvero rapidamente” perché si aspettano che una nuova generazione di intelligenza artificiale generativa basata su LLM venga lanciata nel prossimo anno. Credono che questi modelli potrebbero essere “un punto di svolta completo” e ancora non sanno di cosa potrebbero essere capaci.
Secondo il Times, questa partnership è il primo accordo bilaterale sulla sicurezza dell’intelligenza artificiale nel mondo, sebbene sia gli Stati Uniti che il Regno Unito intendano collaborare con altri paesi in futuro.
“L’intelligenza artificiale è la tecnologia che definisce la nostra generazione. Questa partnership accelererà il lavoro di entrambi i nostri Istituti attraverso l’intero spettro di rischi, sia per la nostra sicurezza nazionale che per la nostra società in generale“, ha affermato il Segretario al Commercio americano Gina Raimondo. “La nostra partnership chiarisce che non stiamo fuggendo da queste preoccupazioni: le stiamo affrontando. Grazie alla nostra collaborazione, i nostri Istituti acquisiranno una migliore comprensione dei sistemi di intelligenza artificiale, condurranno valutazioni più solide e pubblicheranno linee guida più rigorose“.
La UE non resta a guardare: approvato l’AI Act
Mentre questa particolare partnership si concentra su test e valutazioni, i governi di tutto il mondo stanno anche evocando normative per tenere sotto controllo gli strumenti di intelligenza artificiale. A marzo, la Casa Bianca ha firmato un ordine esecutivo volto a garantire che le agenzie federali utilizzino solo strumenti di intelligenza artificiale che “non mettono in pericolo i diritti e la sicurezza del popolo americano”.
Un paio di settimane prima, il Parlamento europeo ha approvato l’AI Act per regolamentare l’intelligenza artificiale. Vieterà “l’intelligenza artificiale che manipola il comportamento umano o sfrutta le vulnerabilità delle persone”, “sistemi di categorizzazione biometrica basati su caratteristiche sensibili”, nonché lo “scraping non mirato” di volti da filmati CCTV e dal web per creare database di riconoscimento facciale. Inoltre, i deepfake e altre immagini, video e audio generati dall’intelligenza artificiale dovranno essere chiaramente etichettati come tali secondo le sue regole.