▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...
Homepage > Notizia

Apple: in arrivo nuove funzioni di accessibilità, tra cui Eye Tracking, Music Haptics e Vocal Shortcuts

Entro la fine dell’anno Apple renderà disponibili nuove funzioni di accessibilità, fra cui il tracciamento degli occhi (Eye Tracking) che permette di controllare iPad e iPhone usando soltanto gli occhi.

Autore: Redazione BitCity

Pubblicato il: 23/05/2024

Apple ha annunciato nuove funzioni di accessibilità in arrivo più avanti nel corso dell'anno, fra cui Eye Tracking che permette a utenti con disabilità fisiche di controllare iPad o iPhone usando soltanto gli occhi. A queste si aggiungono Music Haptics, che permette a persone sorde o ipoudenti di “sentire” la musica usando il Taptic Engine su iPhone; Vocal Shortcuts, che consente all’utente di eseguire attività riproducendo un suono personalizzato; Vehicle Motion Cues, che riduce la chinetosi quando si usa iPhone o iPad all’interno di un veicolo in movimento; e altre funzioni di accessibilità che arriveranno con visionOS.

La funzione Eye Tracking, basata sull’intelligenza artificiale, sarà inclusa di serie e permetterà di controllare iPad e iPhone usando soltanto gli occhi. È stata sviluppata pensando a chi ha una disabilità fisica, e usa la fotocamera frontale per completare in pochi secondi la configurazione e la calibrazione. Inoltre, grazie al machine learning on-device, tutti i dati utilizzati per configurare e controllare questa funzione restano al sicuro sul dispositivo e non vengono condivisi con Apple.

Eye Tracking è compatibile con le app iPadOS e iOS, e non richiede hardware o accessori extra. Grazie a Eye Tracking, l’utente può spostarsi fra gli elementi di un’app e usare la funzione Controllo con ritardo per attivare ciascun elemento, accedere a funzioni aggiuntive come pulsanti fisici, usare lo scorrimento o altri gesti, il tutto soltanto con gli occhi.

Music Haptics permette alle persone sorde o ipoudenti di “sentire” la musica su iPhone in un modo completamente inedito. Quando questa funzione è attivata, il Taptic Engine di iPhone riproduce colpi, texture sonore e le vibrazioni sottili di una canzone. È compatibile con milioni di brani del catalogo Apple Music e sarà disponibile come API, così chi sviluppa potrà rendere la musica più accessibile nelle proprie app.

La funzione “Vocal Shortcuts” permette a chi usa iPhone e iPad di assegnare ai comandi frasi personalizzate, che Siri è in grado di comprendere, per attivare scorciatoie e completare task complessi. Un’altra novità è la funzione “Listen for Atypical Speech”, che offre all’utente la possibilità di migliorare il riconoscimento vocale per un più ampio range di voci, avvalendosi del machine learning on-device per riconoscere gli schemi vocali. Sviluppate pensando alle persone con condizioni acquisite o progressive che compromettono la capacità di parlare, come paralisi cerebrale, sclerosi laterale amiotrofica (SLA) o ictus, queste funzioni offrono un nuovo livello di personalizzazione e controllo. Sono sviluppate a partire dalle funzioni introdotte già con iOS 17 per utenti che non parlano o rischiano di perdere la capacità di parlare.

Vehicle Motion Cues è una nuova esperienza per iPhone e iPad che può contribuire a ridurre la sensazione di malessere causata dal movimento del veicolo con cui si viaggia, un disturbo noto anche come chinetosi. Alcuni studi dimostrano che la chinetosi è in genere causata da un conflitto sensoriale fra ciò che si vede e la sensazione che si prova, e questo disturbo potrebbe impedire ad alcune persone di usare iPhone o iPad mentre viaggiano a bordo di un veicolo. Quando si attiva la modalità Vehicle Motion Cues, compaiono dei punti animati ai bordi dello schermo che riproducono le variazioni di movimento del veicolo, in modo da ridurre il conflitto sensoriale senza interferire con il contenuto principale. Grazie ai sensori integrati in iPhone e iPad, Vehicle Motion Cues rileva quando l’utente si trova all’interno di un veicolo in movimento e reagisce di conseguenza. È possibile impostare questa funzione in modo che si attivi in automatico, oppure abilitarla o disabilitarla manualmente in Centro di Controllo.

CarPlay invece ora include funzioni di accessibilità, fra cui Controllo vocale, Filtri colore e Riconoscimento suoni. Controllo vocale permette di usare CarPlay e di gestire le app usando soltanto la voce. Con Riconoscimento suoni, le persone sorde o ipoudenti che guidano o viaggiano in auto possono attivare le notifiche per suoni come clacson e sirene. I Filtri colore aiutano le persone affette da daltonismo a visualizzare meglio l’interfaccia di CarPlay; sono disponibili anche altre funzioni assistive per la vista come Testo in grassetto e Testo grande.

Fra le funzioni di accessibilità che verranno aggiunte a visionOS ci sarà Trascrizioni live, che sarà disponibile a livello di sistema e aiuterà qualsiasi utente, comprese le persone sorde o ipoudenti, a seguire una conversazione dal vivo o i contenuti audio delle app. Grazie alla possibilità di usare Trascrizioni live con FaceTime in visionOS, ancora più persone potranno comunicare e collaborare usando il proprio avatar. Su Apple Vision Pro sarà possibile spostare i sottotitoli usando la barra della finestra durante gli Apple Immersive Video, e verrà aggiunto il supporto per gli apparecchi acustici Made for iPhone e i processori acustici degli impianti cocleari. Per migliorare l’esperienza di chi ha difficoltà visive o preferisce evitare luci troppo accese e lampeggiamenti, verranno aggiunte le funzioni di accessibilità Riduci trasparenza, Inversione smart e Attenua luci lampeggianti.

Altri aggiornamenti

  • Per migliorare l’esperienza delle persone cieche o con difficoltà visive, VoiceOver includerà nuovi timbri di voce, un rotore vocale flessibile, un controllo del volume personalizzabile e la possibilità di modificare le scorciatoie da tastiera VoiceOver su Mac.
  • Lente d’ingrandimento offrirà una nuova modalità Lettura e permetterà di avviare la Modalità di rilevamento con il tasto Azione.
  • Per chi usa il braille sarà disponibile un nuovo modo di lanciare e usare Input Braille schermo che velocizzerà il controllo e la modifica del testo; la funzione sarà inoltre disponibile anche in lingua giapponese. E la funzione Dot Pad supporterà il braille multi-riga e permetterà di scegliere diverse tavole di input e output.
  • Hover Typing migliora l’esperienza delle persone ipovedenti: quando si scrive in una casella di testo, i caratteri appaiono più grandi e nel colore e nel font scelti dall’utente.
  • Voce personale, una funzione pensata per le persone che rischiano di perdere la capacità di parlare, ora sarà disponibile anche in cinese (mandarino). Chi ha difficoltà a leggere o a pronunciare frasi complete potrà creare una voce personale con frasi più brevi.
  • Per migliorare l’esperienza delle persone totalmente afone, Voce in tempo reale includerà nuove categorie e sarà compatibile con Trascrizioni live.
  • Il trackpad virtuale di AssistiveTouch permetterà alle persone con disabilità fisiche di controllare il dispositivo usando una piccola area dello schermo come trackpad ridimensionabile.
  • Controllo interruttori includerà l’opzione di usare le fotocamere su iPhone e iPad per riconoscere i tap come interruttori.
  • Controllo vocale supporterà dizionari personalizzati e parole complesse.


Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di BitCity.it iscriviti alla nostra Newsletter gratuita.

Tag:

Notizie che potrebbero interessarti: