L’innovazione AI di Google si è espansa notevolmente negli ultimi due anni da quando le applicazioni AI rivolte ai consumatori hanno guadagnato popolarità. Oggi, Gemini di Google è più di un chatbot sul web: è strettamente integrato in varie funzionalità e app della nuova serie Google Pixel 9, ma l’azienda continua a fare molto affidamento sull’innovazione. Un recente rapporto rivela che Google sta ora lavorando con diversi partner internazionali su HeAR, un modello di IA per aiutare le diagnosi cliniche con AI addestrata a riconoscere i disturbi tramite variazioni nel semplice suono di sintomi come tosse e starnuti.
Oltre alla meraviglia dell’AI in sé, Google ha raggiunto un traguardo fondamentale con Gemini e, più specificamente, Gemini Nano. Si tratta di un modello più piccolo e ridotto dell’AI generativa, che può essere eseguito sul dispositivo sulla maggior parte dei moderni telefoni Android di punta. Ciò lo rende indipendente dall’instabilità della rete cellulare e da altre variabili associate all’elaborazione cloud delle query per i modelli AI. Bloomberg riferisce che il colosso della tecnologia ha unito le forze con una start-up indiana, Salcit Technologies, specializzata nel miglioramento dell’assistenza sanitaria respiratoria tramite intelligenza artificiale, per creare una soluzione simile che speriamo alla fine funzioni sul dispositivo.
È facile vedere dove stiamo andando: i modelli di intelligenza artificiale sul dispositivo di Google possono aiutare ad accelerare la diagnosi di disturbi respiratori in aree remote in cui l’assistenza sanitaria primaria e l’accesso a costose apparecchiature mediche rimangono una preoccupazione. Questa partnership ha già prodotto un risultato, che Google chiama modello HeAR, abbreviazione di Health Acoustic Representations.
L’intelligenza artificiale generativa del modello HeAR in soccorso
HeAR è essenzialmente un modello di intelligenza artificiale di base di Google che è addestrato su 300 milioni di clip audio di tosse, raffreddore, starnuti e respirazione da tutto il mondo disponibili in contenuti visibili al pubblico. Sebbene impercettibili all’orecchio non allenato, queste clip suonano in modo diverso dalla respirazione di una persona sana. I dati di addestramento di Google per HeAR includevano anche 100 milioni di suoni di tosse per aiutare a esaminare rapidamente le persone per malattie come la tubercolosi. Salcit Technologies sta utilizzando HeAR di Google per migliorare le valutazioni polmonari e la diagnosi di TB fornite dalla sua IA interna chiamata Swaasa.
Sebbene la diagnosi assistita dall’IA non sostituisca una corretta valutazione clinica e il trattamento, Swaasa è stato approvato per l’uso dall’ente regolatore indiano per i dispositivi medici. In esecuzione come app su un dispositivo mobile, Swaasa necessita di una clip audio di 10 secondi del paziente che tossisce per diagnosticare disturbi con una precisione del 94% (dichiarata). Sebbene il metodo non garantisca un’affidabilità infallibile e abbia i suoi problemi come registrazioni nitide, è già più economico dei tipici test spirometrici utilizzati per diagnosticare la TB e altri disturbi.
Ancora più importante, Swaasa si basa ancora sull’elaborazione cloud e ha ampi margini di miglioramento prima che HeAR possa essere implementato sul dispositivo. Nel frattempo, Google sta scommettendo su una tecnologia di IA simile per addestrare modelli di base per rilevare l’autismo in base ai suoni emessi da un neonato. Tempi emozionanti.