Comme chaque année à l’occasion de la journée mondiale de la sensibilisation à l’accessibilité, Apple a dévoilé un certain nombre de nouveautés qui feront leur apparition dans de futures mises à jour de ses systèmes d’exploitation. La plus spectaculaire est certainement le suivi des yeux pour naviguer dans l’interface d’iOS et d’iPadOS simplement avec le regard.
Un iPhone plus ouvert aux personnes atteintes d’un handicap
Le capteur photo à l’avant est évidemment mis à contribution pour suivre les yeux de l’utilisateur, des données enrichies par une bonne dose d’intelligence artificielle. Pas besoin d’accessoires supplémentaires pour atteindre les différents éléments de l’interface et des applications ; et pour simuler un « toucher », il suffit de poser les yeux sur un bouton ou un lien (cette fonction nécessitera une calibration rapide).
Le suivi du regard sera disponible sur les appareils équipés d’une puce A12 (et au-delà). Cette nouveauté rappelle le système de contrôle de visionOS, le système d’exploitation du Vision Pro qui lui aussi suit le regard de l’utilisateur ; si le « clic » est assuré par un geste des doigts, on peut penser que la nouvelle fonction d’accessibilité est partie basée sur les développements pour le casque.
Pour les personnes atteintes d’une condition affectant la parole comme une paralysie cérébrale, un AVC ou une sclérose latérale amyotrophique, il va être possible de personnaliser des commandes vocales pour lancer des raccourcis et d’autres tâches. Une fonction qui ressemble beaucoup aux requêtes vocales de Siri que l’on peut créer dans l’app Raccourcis, mais cette nouveauté ne nécessite pas de phrase spécifique pour se déclencher.
CarPlay gagne (enfin !) le support du contrôle vocal, ce qui permet d’interagir à la voix avec les apps et l’interface du système d’affichage déporté. CarPlay saura également alerter l’automobiliste (ayant des problèmes d’audition) des sirènes et des bruits de klaxon environnants. Des améliorations pour l’affichage sont également dans les tuyaux pour rendre l’interface plus lisible (texte plus gros, filtres de couleurs).
Toujours pour la voiture, l’iPhone ou un iPad utilisé pendant un voyage pourra aider à réduire le mal des transports (cinétose) lorsque le véhicule est en mouvement. Concrètement, des points animés sur les bords de l’écran vont représenter les changements de mouvement de la voiture, ce qui devrait limiter le conflit sensoriel entre ce que l’utilisateur voit et ce qu’il ressent.
Ces indices de mouvement se basent sur les capteurs intégrés des appareils, et n’interféreront pas avec ce qui se passe sur l’écran. Plus anecdotique mais pas moins intéressant, le moteur haptique très performant de l’iPhone va vibrer au son de la musique. Les auditeurs atteints d’un problème d’audition pourront ainsi mieux « ressentir » physiquement leurs chansons préférées.
Apple multiplie également les améliorations pour visionOS (comme la transcription texte en direct de la personne qui parle à l’utilisateur du casque !), VoiceOver (nouvelles voix), le mode Reader avec une loupe, pour la prise en charge du braille ou encore un trackpad virtuel pour les utilisateurs d’AssistiveTouch.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Apple