Da quando Google ha sospeso definitivamente il supporto al Project Tango concentrandosi al 100% su Google ARCore, la qualità della realtà aumentata su Android non è stata tanto elevata come quella di ARKit di iOS. In particolare, nonostante le fotocamere multiple degli smartphone compatibili, la percezione della profondità non è stata il forte di ARCore.
Per rimediare, Google ha presentato oggi le Depth API per ARCore. La nuova interfaccia aiuta a distinguere tra primo piano del mondo reale e sfondo, in modo che gli oggetti digitali vengano opportunamente occlusi migliorando al contempo le capacità di ricerca e la fisica.
Gli sviluppatori possono integrare la tecnologia nei loro progetti a partire da oggi e dovreste già vedere il cambiamento in alcuni dei prodotti di Google.
L’API utilizza un algoritmo di profondità del movimento simile alla modalità Ritratto bokeh della Google Camera per creare una mappa di profondità. Ciò si ottiene prendendo più immagini da diverse angolazioni mentre si sposta il telefono, il che consente al sistema di stimare la distanza da ogni pixel che si vede sullo schermo.
Al momento tuttavia l’API si affida a una sola telecamera per questo. C’è dunque ampio margine di miglioramento nel caso in cui si sfruttassero più fotocamere.
Ad ogni modo, grazie a queste informazioni di profondità, gli oggetti digitali possono essere nascosti o parzialmente nascosti dietro materiali del mondo reale. Il primo servizio dotato delle Depth API è Scene Viewer, che fa parte della Ricerca Google. Esso consente di visualizzare tutti i tipi di animali davanti alla tua fotocamera.
È bene precisare che l’aggiornamento è disponibile per tutti gli smartphone compatibili con ARCore, anche se il rilascio sta avvenendo lato server.