Solo pochi giorni fa, la pagina delle politiche di utilizzo di OpenAI affermava esplicitamente che la società vieta l’uso della sua tecnologia per scopi “militari e di guerra”. Da allora quella riga è stata cancellata. Come notato per la prima volta da The Intercept, la società ha aggiornato la pagina il 10 gennaio “per essere più chiara e fornire indicazioni più specifiche per il servizio“, come afferma il registro delle modifiche. Proibisce ancora l’uso dei suoi modelli linguistici di grandi dimensioni (LLM) per qualsiasi cosa che possa causare danni e mette in guardia le persone dall’utilizzare i suoi servizi per “sviluppare o utilizzare armi”. Tuttavia, la società ha rimosso il linguaggio relativo a “militare e guerra”.
Anche se dobbiamo ancora vederne le implicazioni nella vita reale, questo cambiamento nella formulazione arriva proprio mentre le agenzie militari di tutto il mondo mostrano interesse nell’uso dell’intelligenza artificiale. “Dato l’uso dei sistemi di intelligenza artificiale nel prendere di mira i civili a Gaza, è un momento importante prendere la decisione di rimuovere le parole ‘militare e guerra’ dalla politica di utilizzo consentito di OpenAI”, Sarah Myers West, amministratore delegato di AI Now Institute, ha detto alla pubblicazione.
La menzione esplicita di “militare e guerra” nell’elenco degli usi proibiti indicava che OpenAI non poteva lavorare con agenzie governative come il Dipartimento della Difesa, che in genere offre accordi lucrosi agli appaltatori. Al momento, l’azienda non dispone di un prodotto che possa direttamente uccidere o causare danni fisici a qualcuno. Ma come ha affermato The Intercept, la sua tecnologia potrebbe essere utilizzata per attività come scrivere codice ed elaborare ordini di approvvigionamento per cose che potrebbero essere utilizzate per uccidere persone.
Alla domanda sul cambiamento nella formulazione della sua politica, il portavoce di OpenAI, Niko Felix ha detto alla pubblicazione che la società “mirava a creare una serie di principi universali che siano facili da ricordare e da applicare, soprattutto perché i nostri strumenti sono ora utilizzati a livello globale da utenti comuni che ora può anche creare GPT.” Felix ha spiegato che “un principio come ‘Non danneggiare gli altri’ è ampio ma facilmente comprensibile e rilevante in numerosi contesti“, aggiungendo che OpenAI “cita specificamente le armi e le lesioni agli altri come chiari esempi“. Tuttavia, secondo quanto riferito, il portavoce ha rifiutato di chiarire se il divieto dell’uso della sua tecnologia per “danneggiare” altri includa tutti i tipi di uso militare al di fuori dello sviluppo di armi.