Le principali società di intelligenza artificiale, tra cui OpenAI, Microsoft, Google, Meta e altre, si sono impegnate congiuntamente a impedire che i loro strumenti di IA generativa vengano utilizzati per sfruttare i bambini e generare materiale pedopornografico (CSAM). L’iniziativa è stata guidata dal gruppo per la sicurezza dei bambini Thorn e All Tech Is Human, un’organizzazione no-profit focalizzata sulla tecnologia responsabile.
Gli impegni delle aziende di intelligenza artificiale, ha affermato Thorn, “costituiscono un precedente rivoluzionario per il settore e rappresentano un passo avanti significativo negli sforzi per difendere i bambini dagli abusi sessuali man mano che si sviluppa una caratteristica dell’intelligenza artificiale generativa”.
L’obiettivo dell’iniziativa è prevenire la creazione di materiale sessualmente esplicito che coinvolge bambini e rimuoverlo dalle piattaforme di social media e dai motori di ricerca. Solo nel 2023, negli Stati Uniti sono stati segnalati più di 104 milioni di file di materiale sospetto di abuso sessuale su minori, afferma Thorn. In assenza di un’azione collettiva, l’intelligenza artificiale generativa è pronta a peggiorare questo problema e a sopraffare le forze dell’ordine che stanno già lottando per identificare le vittime autentiche.
L’IA generativa contro la pedopornografia
Martedì, Thorn e All Tech Is Human hanno pubblicato un nuovo documento intitolato “Safety by Design for Generative AI: Preventing Child Sexual Abuse” che delinea strategie e fornisce raccomandazioni per le aziende che costruiscono strumenti di IA generativa, motori di ricerca, piattaforme di social media, società di hosting e gli sviluppatori ad adottare misure per impedire che l’intelligenza artificiale generativa venga utilizzata per danneggiare i bambini.
Una delle raccomandazioni, ad esempio, chiede alle aziende di scegliere attentamente i set di dati utilizzati per addestrare i modelli di intelligenza artificiale ed evitare quelli che contengono solo istanze di materiale pedopornografico ma anche contenuti sessuali per adulti a causa della propensione dell’intelligenza artificiale generativa a combinare i due concetti.
Thorn chiede inoltre alle piattaforme di social media e ai motori di ricerca di rimuovere i collegamenti a siti Web e app che consentono alle persone di “nudizzare” immagini di bambini, creando così nuovo materiale online di abusi sessuali su minori generato dall’intelligenza artificiale.
Un’ondata di materiale pedopornografico generato dall’IA generativa, secondo il documento, renderà più difficile l’identificazione delle vittime autentiche di abusi sessuali su minori, aumentando il “problema del pagliaio” – un riferimento alla quantità di contenuti che le forze dell’ordine devono attualmente vagliare.
“Questo progetto aveva lo scopo di rendere abbondantemente chiaro che non è necessario alzare le mani“, ha detto al The Wall Street Journal la vicepresidente della scienza dei dati di Thorn, Rebecca Portnoff. “Vogliamo essere in grado di cambiare il corso di questa tecnologia in modo tale che i danni esistenti di questa tecnologia vengano eliminati al nascere.”
Alcune aziende, ha detto Portnoff, hanno già accettato di separare immagini, video e audio che coinvolgono bambini dai set di dati contenenti contenuti per adulti per evitare che i loro modelli combinino i due. Altri aggiungono anche filigrane per identificare i contenuti generati dall’intelligenza artificiale, ma il metodo non è infallibile: filigrane e metadati possono essere facilmente rimossi.