Lo sviluppo dell’intelligenza artificiale sta procedendo in maniera molto spedita, con alcuni settore che ormai ne fanno la loro colonna portante (gli assistenti digitali ad esempio). In molti però temono che uno sviluppo senza freni (e senza regole) possa essere pericoloso e soprattutto poco etico. A questo core di recente si è aggiunto anche Sundar Pichai, CEO di Google e di Alphabet.
In un recente editoriale sul Financial Times, il CEO di Google, Sundar Pichai, ha parlato della regolamentazione dell’intelligenza artificiale, evidenziando il potenziale positivo e negativo dello sviluppo di tecnologie come questa in maniera incontrollata.
Quest’intervista arriva poche settimane dopo che Google ha annunciato una ristrutturazione aziendale, in cui i co-fondatori Larry Page e Sergey Brin hanno abbandonato il consiglio di amministrazione e con Sundar Pichai che, oltre a essere il CEO di Google, è diventato anche CEO della società madre Alphabet.
Nell’articolo, Pichai apre con una discussione sul potenziale della tecnologia per cambiare la vita, menzionando alcuni degli sforzi di Alphabet nell’uso dell’IA per sviluppare soluzioni avanzate in campo medico, ecologico, stradale e infrastrutturale. Ma, naturalmente, esiste anche il potenziale negativo di uno sviluppo sregolato, motivo per cui Pichai evidenzia la “necessità di avere gli occhi aperti su ciò che potrebbe andare storto”.
A tal fine, sostiene una “regolamentazione ragionevole” nello sviluppo dell’IA da parte di governi e società. Questo tipo di minaccia digitale è senza dubbio un problema urgente, soprattutto per aziende come Google, i cui prodotti spesso si basano quasi interamente sull’intelligenza artificiale.
Pichai non ha raccomandato alcuna guida concreta né criticato proposte esistenti, ma ha menzionato criteri importanti da considerare, come “sicurezza, trasparenza, correttezza e responsabilità”.