OpenAI è stata colpita da un reclamo sulla privacy in Austria da parte di un gruppo di difesa chiamato NOYB, che sta per None Of Your Business. La denuncia sostiene che il bot ChatGPT dell’azienda ha ripetutamente fornito informazioni errate su un individuo reale (che per motivi di privacy non è nominato nella denuncia). Ciò potrebbe significare che ChatGPT stia violando il GDPR sulla privacy dell’UE.
Una violazione del GDPR di ChatGPT significherebbe una multa del 4% del fatturato di OpenAI
Il chatbot avrebbe sputato informazioni errate sulla data di nascita dell’individuo, invece di limitarsi a dire che non conosceva la risposta alla domanda. Come i politici, ai chatbot con intelligenza artificiale piace inventare cose con sicurezza e sperare che non ce ne accorgiamo. Questo fenomeno è chiamato allucinazione. Tuttavia, una cosa è quando questi robot inventano gli ingredienti per una ricetta e un’altra cosa quando inventano cose su persone reali.
La denuncia indica inoltre che OpenAI si è rifiutata di aiutare a cancellare le informazioni false, rispondendo che era tecnicamente impossibile apportare quel tipo di modifica. L’azienda si è offerta di filtrare o bloccare i dati su determinati prompt. La politica sulla privacy di OpenAI afferma che se gli utenti notano che il chatbot AI ha generato “informazioni di fatto inesatte” su di loro possono inviare una “richiesta di correzione”, ma la società afferma che “potrebbe non essere in grado di correggere l’inesattezza in ogni caso“.
Questo è più di un semplice reclamo, poiché la tendenza di ChatGPT a inventare cose potrebbe entrare in conflitto con il Regolamento generale sulla protezione dei dati (GDPR) europeo, che regola il modo in cui i dati personali possono essere utilizzati ed elaborati. I residenti nell’UE hanno diritti riguardo alle informazioni personali, incluso il diritto alla correzione di dati falsi. Il mancato rispetto di queste normative può comportare gravi sanzioni finanziarie, in alcuni casi fino al 4% del fatturato annuo globale. Le autorità di regolamentazione possono anche ordinare modifiche al modo in cui le informazioni vengono elaborate.
“È chiaro che le aziende attualmente non sono in grado di far sì che chatbot come ChatGPT rispettino la legislazione dell’UE, quando trattano dati personali”, ha affermato in una nota Maartje de Graaf, avvocato specializzato in protezione dei dati della NOYB. “Se un sistema non può produrre risultati accurati e trasparenti, non può essere utilizzato per generare dati sugli individui. La tecnologia deve seguire i requisiti legali e non viceversa”.
OpenAI non è trasparente sulla provenienza dei dati generati da ChatGPT
La denuncia ha anche sollevato preoccupazioni riguardo alla trasparenza da parte di OpenAI, suggerendo che la società non offre informazioni sulla provenienza dei dati che genera sugli individui o se questi dati vengono archiviati a tempo indeterminato. Ciò è di particolare importanza quando si considerano i dati relativi ai privati.
Ancora una volta, si tratta di una denuncia da parte di un gruppo di difesa e le autorità di regolamentazione dell’UE devono ancora commentare in un modo o nell’altro. Tuttavia, OpenAI ha riconosciuto in passato che ChatGPT “a volte scrive risposte apparentemente plausibili ma errate o prive di senso“. NOYB si è rivolta all’autorità austriaca per la protezione dei dati e ha chiesto all’organizzazione di indagare sulla questione.
La società sta affrontando un reclamo simile in Polonia, in cui l’autorità locale per la protezione dei dati ha iniziato a indagare su ChatGPT dopo che un ricercatore non è riuscito a ottenere l’aiuto di OpenAI per correggere informazioni personali false. Tale denuncia accusa OpenAI di diverse violazioni del GDPR dell’UE, per quanto riguarda la trasparenza, i diritti di accesso ai dati e la privacy.
C’è anche l’Italia. Il Garante italiano per la protezione dei dati personali ha condotto un’indagine su ChatGPT e OpenAI che ha concluso affermando di ritenere che l’azienda abbia violato il GDPR in vari modi. Ciò include la tendenza di ChatGPT a inventare cose false sulle persone. Il chatbot è stato effettivamente bandito in Italia prima che OpenAI apportasse alcune modifiche al software, come nuovi avvisi per gli utenti e la possibilità di rinunciare all’utilizzo delle chat per addestrare gli algoritmi. Nonostante non sia più bannato, l’indagine italiana su ChatGPT continua.
OpenAI non ha risposto a quest’ultima denuncia, ma ha risposto alla salva normativa emessa dall’Autorità per la protezione dei dati italiana. “Vogliamo che la nostra intelligenza artificiale impari a conoscere il mondo, non i privati”, ha scritto la società. “Lavoriamo attivamente per ridurre i dati personali nell’addestramento dei nostri sistemi come ChatGPT, che rifiuta anche le richieste di informazioni private o sensibili sulle persone.”