Google presenta
Project Soli per permetterci di
interagire con i dispositivi indossabili senza toccarli. Il colosso di Mountain View, durante la
Google I/O, ha mostrato
una versione personalizzata dello smartwatch LG Urbane, controllabile semplicemente muovendo le dita, captando il senso dei gesti, la distanza e altri parametri grazie alla fusione di tecnologia radar e machine learning.
L'obiettivo di Big G è quello di
garantire un'interazione migliore con i piccoli schermi.
L'azienda intende inoltre
realizzare un nuovo linguaggio dei gesti che si adatta a ogni dispositivo tecnologico di casa, ma non solo.
Dopo aver presentato il developer kit alpha di
Project Soli lo scorso anno, quest'anno Google ha lavorato sull'affinamento della tecnologia.
I primi kit di Soli consumavano molto, ma lavorando a stretto contatto con
Infineon, gli ingegneri hanno ridotto il consumo della piattaforma di 22 volte, da 1,2 watt a 0,054 watt.
Sono inoltre riusciti a far funzionare il tutto con chip mobile standard come lo
Snapdragon 400 di Qualcomm o un Intel Atom, ottimizzando il codice.
Nonostante le modifiche,
Soli può catturare 18mila immagini al secondo.Google ha lavorato anche con
Harman per
implementare la tecnologia in uno speaker JBL.
Il dispositivo è in grado di accendersi semplicemente avvicinando la mano e saltare i brani con un
gesto del pollice.
Il prossimo anno, Google distribuirà una versione beta del dev kit di Soli, ma al momento non è chiaro quando la tecnologia debutterà in un prodotto commerciale.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di
BitCity.it iscriviti alla nostra
Newsletter gratuita.