La forte accelerata nel segmento delle IA generative, data in prima battuta da OpenAI con il suo ChatGPT e successivamente da Bing Chat di Microsoft (frutto di un investimento multimiliardario proprio in OpenAI) e Google Bard, sembra che stia tralasciando qualcosa di estremamente importante: la privacy. Con un provvedimento immediato, il Garante della Privacy ha bloccato ChatGPT in Italia. E non si tratta di un Pesce dìAprile.
Uno dei principali punti contestati è la mancanza di una comunicazione chiara e trasparente sul tipo di dati che OpenAI raccoglie su coloro che utilizzano il servizio di ChatGPT.
Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.
Altro punto contestato è la mancanza di un filtro per l’età che ne vieti l’utilizzo ai minori di 13 anni.
Nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.
Venendo meno non solo alla regolamentazione italiana sulla privacy ma anche al GDPR europeo, OpenAI ha tempo 20 giorni per rispondere al Garante indicando le misure adottate per ovviare a queste mancanze pena una multa di 20 milioni di euro o pari al 4% del fatturato globale annuo.
Facciamo presente che il Garante per la Privacy italiano non è l’unico a nutrire dubbi su come agisce OpenAI: anche la FTC sta analizzando la questione e potrebbe chiedere uno stop allo sviluppo di qualche mese. Per non parlare poi degli aspetti meno tecnici ma più etici di ChatGPT, con le scuole di New York che ne hanno vietato l’utilizzo per gli studenti.