Da quando ChatGPT ha iniziato ad essere popolare, le persone si sono preoccupate del potere della scrittura AI quando si tratta di plagio. Con gli strumenti AI, le persone non hanno bisogno di scrivere i loro saggi e relazioni: invece, possono collegare l’argomento a uno strumento di generazione AI e fargli scrivere tutto per loro. A quanto pare, OpenAI ha la tecnologia per rendere molto più facile rilevare quando ChatGPT genera un passaggio di testo attraverso un watermark digitale: tuttavia, il conflitto interno che circonda lo strumento ha impedito all’azienda di implementarlo effettivamente.
Come riportato dal Wall Street Journal, gli addetti ai lavori sostengono che OpenAI ha il potere di aggiungere “fingerprinting” al testo generato da ChatGPT. Il fingerprinting si verifica quando uno sviluppatore di IA aggiunge un pattern rivelatore alla generazione del modello che gli umani non possono rilevare. Quindi, lo sviluppatore può creare uno strumento che cerca questo pattern speciale e segnala tutto ciò che lo presenta come generato dall’IA. Le persone preoccupate per l’uso dell’IA possono quindi utilizzare questo strumento per individuare la generazione di IA in modi che un umano non può.
Lo strumento di fingerprinting che OpenAI ha creato per ChatGPT ha un tasso di rilevamento del 99,9%, il che aiuterebbe a ridurre le persone che lo usano per plagio. C’è solo un problema: alcuni dipendenti non pensano che dovrebbe essere distribuito. Alcuni citano che la generazione di IA è utile per le persone che non sono madrelingua inglese per far capire il loro punto di vista, mentre altri indicano un recente sondaggio in cui 1/3 dei membri paganti di OpenAI ha affermato di non volere che la tecnologia di fingerprinting venga applicata alle loro generazioni.
Questo però probabilmente verrà incluso di default sin dalle prime battute per OpenAI Sora.
Dopo il mezzo scandalo, OpenAI ammette di lavorare a un “watermark digitale” per ChatGPT
In seguito a un rapporto del Wall Street Journal che afferma che OpenAI ha tenuto nascosto uno strumento in grado di individuare saggi scritti da ChatGPT con un elevato grado di accuratezza, l’azienda ha condiviso alcune informazioni sullo sviluppo della filigrana digitale per il testo e sul motivo per cui non ha rilasciato il suo metodo di rilevamento.
In un aggiornamento pubblicato domenica a un post del blog di maggio, OpenAI ha affermato: “I nostri team hanno sviluppato un metodo di filigrana del testo che continuiamo a considerare mentre ricerchiamo alternative“. L’azienda ha affermato che la filigrana è una delle molteplici soluzioni, tra cui classificatori e metadati, che ha esaminato come parte di “ricerche approfondite nell’area della provenienza del testo”.
Secondo OpenAI, “è stato molto accurato” in alcune situazioni, ma non funziona altrettanto bene quando si è confrontato con certe forme di manomissione, “come l’uso di sistemi di traduzione, la riformulazione con un altro modello generativo o la richiesta al modello di inserire un carattere speciale tra ogni parola e quindi l’eliminazione di tale carattere“. E il watermark digitale sul testo potrebbe “avere un impatto sproporzionato su alcuni gruppi che usano ChatGPT“, ha scritto OpenAI. “Ad esempio, potrebbe stigmatizzare l’uso dell’IA come utile strumento di scrittura per chi non è madrelingua inglese“.
Secondo il post del blog, OpenAI ha soppesato questi rischi. L’azienda ha anche scritto di aver dato priorità al rilascio di strumenti di autenticazione per i contenuti audiovisivi. In una dichiarazione a TechCrunch, un portavoce di OpenAI ha affermato che l’azienda sta adottando un “approccio deliberato” alla provenienza del testo a causa “delle complessità coinvolte e del suo probabile impatto sull’ecosistema più ampio oltre OpenAI“.