Sembra che una nuova IA generativa appaia ovunque ti giri. ChatGPT rimane popolare, Google Bard continua a ricevere aggiornamenti, DALL-E 3 è in cima al gioco di creazione di immagini (anche se la concorrenza di Google Imagen, Midjourney e Stable Diffusion è più forte che mai). Queste app di intelligenza artificiale sono facili da usare. Puoi accedere subito dal tuo smartphone Android e utilizzarli per visualizzare tutti i tipi di informazioni in quasi tutti i formati che desideri.
I professionisti stanno sperimentando l’utilizzo dell’intelligenza artificiale per scrivere e-mail, elenchi di prodotti e riflessioni con risultati contrastanti. Questa sperimentazione ha sollevato un problema comune e difficile che ogni utente di intelligenza artificiale deve conoscere: le allucinazioni.
Le allucinazioni dell’intelligenza artificiale sembrano una trama da quattro soldi in uno spettacolo di fantascienza, ma queste falsità sono un problema negli algoritmi dell’intelligenza artificiale e hanno conseguenze per le persone che fanno affidamento su queste tecnologie. Ecco cosa devi sapere su di loro.
Cos’è un’allucinazione dell’intelligenza artificiale?
Un’allucinazione di intelligenza artificiale si verifica quando un modello di intelligenza artificiale generativa fornisce informazioni per un prompt che non è corretto o non esiste nel mondo reale. Ad esempio, se chiedi all’IA: “Quanti tulipani ci sono nel mondo?” e l’intelligenza artificiale risponde: “Ci sono tre tulipani per ogni persona vivente nel mondo“, è un’allucinazione.
Questa statistica non è corretta. Nessuno l’ha mai creata o studiata nel mondo reale. L’intelligenza artificiale ha inventato tutto da sola. Ciò accade continuamente con i dati, le statistiche e i numeri citati dall’IA. I chatbot possono persino creare falsi casi giudiziari che mettono nei guai gli avvocati o citano ricerche mediche sbagliate per supportare una teoria medica.
Per le IA basate su immagini, un’allucinazione può essere come l’abitudine di non capire come funzionano le mani umane o di scambiare una tigre per un gatto domestico in un prompt. Tuttavia, le allucinazioni sono più comunemente associate all’intelligenza artificiale conversazionale.
Cosa causa le allucinazioni dell’IA?
L’intelligenza artificiale generativa viene creata a partire da LLM o modelli linguistici di grandi dimensioni: si tratta di un modello di machine learning che addestra molti set di dati generati dall’uomo (contenuti online). Analizzano molto linguaggio trovato online (o immagini, a seconda della loro specialità) e lo scompongono in identificatori e formule che possono utilizzare per creare frasi che sembrano provenire da esseri umani. È come una forma avanzata di imitazione e le IA hanno bisogno di un addestramento accurato prima di poter sembrare umane. Alla fine, gli strumenti di intelligenza artificiale conversazionale possono fornire informazioni in linguaggio naturale, ma ciò non significa che ciò che dicono sia accurato.
I sistemi di intelligenza artificiale conversazionale sono progettati per rispondere a richieste. Devono dire qualcosa. Tra l’imitazione del linguaggio umano e la scansione dei dati online, a volte inventano cose per rispondere alle richieste in modo naturale. I robot basati sull’intelligenza artificiale mirano a sembrare come gli umani, non necessariamente a fare tutto bene, quindi possono penetrare informazioni errate.
Come riconoscere le allucinazioni delle IA
Parte del problema è che chatbot avanzati e IA simili possono sembrare convincenti: citano le allucinazioni perché “credono” che siano vere come qualsiasi altro tipo di dato. La prima cosa da fare ogni volta che ci si affida a un chatbot IA è quella di ricontrollare quando viene avanzata un’affermazione, in particolare coinvolgendo numeri, date, persone o eventi. È bene anche fare attenzione alle informazioni contraddittorie in una risposta o ai numeri che non sembrano adatti al prompt.
Non bisogna fidarsi di bot forniscano informazioni affidabili senza guardare più da vicino. Ci sono esempi di ChatGPT che confondono personaggi immaginari e altre informazioni false che potresti non aspettarti. Esercitati sempre nel tuo controllo dei fatti.