Entro la fine dell’anno Apple renderà disponibili nuove funzioni di accessibilità, fra cui il tracciamento degli occhi (Eye Tracking) che permette di controllare iPad e iPhone usando soltanto gli occhi.
Autore: Redazione BitCity
Pubblicato il: 23/05/2024
Apple ha annunciato nuove funzioni di accessibilità in arrivo più avanti nel corso dell'anno, fra cui Eye Tracking che permette a utenti con disabilità fisiche di controllare iPad o iPhone usando soltanto gli occhi. A queste si aggiungono Music Haptics, che permette a persone sorde o ipoudenti di “sentire” la musica usando il Taptic Engine su iPhone; Vocal Shortcuts, che consente all’utente di eseguire attività riproducendo un suono personalizzato; Vehicle Motion Cues, che riduce la chinetosi quando si usa iPhone o iPad all’interno di un veicolo in movimento; e altre funzioni di accessibilità che arriveranno con visionOS.
La funzione Eye Tracking, basata sull’intelligenza artificiale, sarà inclusa di serie e permetterà di controllare iPad e iPhone usando soltanto gli occhi. È stata sviluppata pensando a chi ha una disabilità fisica, e usa la fotocamera frontale per completare in pochi secondi la configurazione e la calibrazione. Inoltre, grazie al machine learning on-device, tutti i dati utilizzati per configurare e controllare questa funzione restano al sicuro sul dispositivo e non vengono condivisi con Apple.
Eye Tracking è compatibile con le app iPadOS e iOS, e non richiede hardware o accessori extra. Grazie a Eye Tracking, l’utente può spostarsi fra gli elementi di un’app e usare la funzione Controllo con ritardo per attivare ciascun elemento, accedere a funzioni aggiuntive come pulsanti fisici, usare lo scorrimento o altri gesti, il tutto soltanto con gli occhi.
Music Haptics permette alle persone sorde o ipoudenti di “sentire” la musica su iPhone in un modo completamente inedito. Quando questa funzione è attivata, il Taptic Engine di iPhone riproduce colpi, texture sonore e le vibrazioni sottili di una canzone. È compatibile con milioni di brani del catalogo Apple Music e sarà disponibile come API, così chi sviluppa potrà rendere la musica più accessibile nelle proprie app.
La funzione “Vocal Shortcuts” permette a chi usa iPhone e iPad di assegnare ai comandi frasi personalizzate, che Siri è in grado di comprendere, per attivare scorciatoie e completare task complessi. Un’altra novità è la funzione “Listen for Atypical Speech”, che offre all’utente la possibilità di migliorare il riconoscimento vocale per un più ampio range di voci, avvalendosi del machine learning on-device per riconoscere gli schemi vocali. Sviluppate pensando alle persone con condizioni acquisite o progressive che compromettono la capacità di parlare, come paralisi cerebrale, sclerosi laterale amiotrofica (SLA) o ictus, queste funzioni offrono un nuovo livello di personalizzazione e controllo. Sono sviluppate a partire dalle funzioni introdotte già con iOS 17 per utenti che non parlano o rischiano di perdere la capacità di parlare.
Vehicle Motion Cues è una nuova esperienza per iPhone e iPad che può contribuire a ridurre la sensazione di malessere causata dal movimento del veicolo con cui si viaggia, un disturbo noto anche come chinetosi. Alcuni studi dimostrano che la chinetosi è in genere causata da un conflitto sensoriale fra ciò che si vede e la sensazione che si prova, e questo disturbo potrebbe impedire ad alcune persone di usare iPhone o iPad mentre viaggiano a bordo di un veicolo. Quando si attiva la modalità Vehicle Motion Cues, compaiono dei punti animati ai bordi dello schermo che riproducono le variazioni di movimento del veicolo, in modo da ridurre il conflitto sensoriale senza interferire con il contenuto principale. Grazie ai sensori integrati in iPhone e iPad, Vehicle Motion Cues rileva quando l’utente si trova all’interno di un veicolo in movimento e reagisce di conseguenza. È possibile impostare questa funzione in modo che si attivi in automatico, oppure abilitarla o disabilitarla manualmente in Centro di Controllo.
CarPlay invece ora include funzioni di accessibilità, fra cui Controllo vocale, Filtri colore e Riconoscimento suoni. Controllo vocale permette di usare CarPlay e di gestire le app usando soltanto la voce. Con Riconoscimento suoni, le persone sorde o ipoudenti che guidano o viaggiano in auto possono attivare le notifiche per suoni come clacson e sirene. I Filtri colore aiutano le persone affette da daltonismo a visualizzare meglio l’interfaccia di CarPlay; sono disponibili anche altre funzioni assistive per la vista come Testo in grassetto e Testo grande.
Fra le funzioni di accessibilità che verranno aggiunte a visionOS ci sarà Trascrizioni live, che sarà disponibile a livello di sistema e aiuterà qualsiasi utente, comprese le persone sorde o ipoudenti, a seguire una conversazione dal vivo o i contenuti audio delle app. Grazie alla possibilità di usare Trascrizioni live con FaceTime in visionOS, ancora più persone potranno comunicare e collaborare usando il proprio avatar. Su Apple Vision Pro sarà possibile spostare i sottotitoli usando la barra della finestra durante gli Apple Immersive Video, e verrà aggiunto il supporto per gli apparecchi acustici Made for iPhone e i processori acustici degli impianti cocleari. Per migliorare l’esperienza di chi ha difficoltà visive o preferisce evitare luci troppo accese e lampeggiamenti, verranno aggiunte le funzioni di accessibilità Riduci trasparenza, Inversione smart e Attenua luci lampeggianti.
Altri aggiornamenti