Il futuro della moderazione delle attività online tossiche è nelle mani del machine learning. Se il significato del termine è confuso, è fondamentalmente l’intelligenza artificiale (AI) che consente ai computer di apprendere su un determinata questione attraverso l’analisi di tantissimi dati. Nelle mani del colosso della ricerca Google, il machine learning ha avuto un vero allenamento nel 2021 controllando comportamenti abusivi su Google Maps. Cosa tra l’altro necessaria visti gli oltre 10 miliardi di download su Android.
In un recente post su come Google mantiene affidabili le informazioni di Maps, la società ha affermato di aver utilizzato l’apprendimento automatico e gli operatori umani per bloccare oltre 100 milioni di tentativi di modifiche fraudolente ai profili dell’attività di Google. Ha anche eliminato più di 7 milioni di profili falsi e 630.000 di queste rimozioni erano basate sui rapporti degli utenti.
Inoltre, Google afferma di aver fermato anche 12 milioni di tentativi di impersonare un’azienda e 8 milioni di tentativi fraudolenti di rivendicare il profilo di un’azienda. Infine, Google ha chiuso 1 milione di account a causa di violazioni delle norme correlate.
Il rapporto sull’affidabilità di Maps includeva anche le misure adottate da Google quando le attività hanno iniziato ad aprire di nuovo nel 2021 e le persone hanno tentato di danneggiarle con recensioni false. Oltre 95 milioni di recensioni che violavano le norme di Google sono state bloccate e 60.000 di queste erano in qualche modo legate a problemi relativi al COVID-19.
Il machine learning ha anche aiutato il team di Google Maps a rimuovere quasi 200 milioni di foto e video di scarsa qualità o che violavano le norme. Google Maps può essere una calamita per comportamenti loschi, quindi è bello vedere quanto Google stia lavorando duramente per tenere al sicuro gli utenti e le loro attività.
Ma mentre Google Maps sta utilizzando l’apprendimento automatico con grande efficacia, è anche bello sapere che gli occhi umani sono ancora coinvolti nel processo, soprattutto se si ritiene che le recensioni che vanno oltre il significato letterale (ad esempio quelle ironiche) vengano ingiustamente cancellate. L’intelligenza artificiale non ha senso dell’umorismo.