À l’approche de la WWDC prévue en juin, Apple a officiellement annoncé les nouvelles fonctionnalités d’accessibilité de cette année pour iPhone, iPad, Mac, Apple Watch et Apple Vision Pro. Cette annonce coïncide avec le 40e anniversaire de l’innovation en matière d’accessibilité, la société ayant fondé son bureau dédié aux personnes handicapées en 1985.

« Chez Apple, l’accessibilité fait partie de notre ADN », a déclaré le PDG d’Apple, Tim Cook. « Rendre la technologie accessible à tous est une priorité pour nous et nous sommes fiers des innovations que nous partageons cette année. Cela inclut des outils pour aider les gens à accéder à des informations cruciales, explorer le monde qui les entoure et faire ce qu’ils aiment. »

ÉTIQUETTES NUTRITIONNELLES D’ACCESSIBILITÉ SUR L’APP STORE

En tête de l’annonce des nouvelles fonctionnalités accessibles d’iOS 19 se trouve une mise à jour de l’App Store. Plus tard dans l’année, Apple ajoutera une section Étiquettes nutritionnelles d’accessibilité dans les listings de l’App Store. Cette fonctionnalité est similaire à celle des Étiquettes nutritionnelles de confidentialité lancées auparavant, permettant aux utilisateurs de visualiser facilement les pratiques de confidentialité des applications individuelles.

Les nouvelles étiquettes d’accessibilité montreront aux utilisateurs quelles fonctionnalités d’accessibilité une application prend en charge avant son téléchargement. Cela inclut les fonctionnalités telles que VoiceOver, Commande vocale, Texte plus grand, Contraste suffisant, Motion réduite, sous-titres, et bien plus encore.

LOUPE POUR MAC

Avec iOS 19, Apple introduira également sa Loupe sur Mac pour la première fois avec la mise à jour de macOS 16. Cette application existe sur iPhone et iPad depuis 2016 et permet aux utilisateurs aveugles ou malvoyants de zoomer, lire du texte et détecter des objets à leur autour.

La nouvelle application Loupe pour Mac fonctionne avec un iPhone connecté via Continuity Camera ou une caméra USB attachée. Une fois connecté, les utilisateurs peuvent zoomer sur leur environnement et dans l’application Loupe sur leur Mac. Ils peuvent également manipuler le flux vidéo pour ajuster des éléments comme la perspective, la luminosité, le contraste, les couleurs, et plus afin de faciliter la lecture. L’application est même capable de reconnaître du texte.

LECTEUR D’ACCESSIBILITÉ

Le Lecteur d’accessibilité est une nouvelle fonctionnalité qui sera disponible à l’échelle du système pour faciliter la lecture du texte. Apple explique :

« Le Lecteur d’accessibilité est un nouveau mode de lecture conçu pour rendre le texte plus facile à lire pour les utilisateurs présentant une large gamme de handicaps, tels que la dyslexie ou la malvoyance. Accessible sur iPhone, iPad, Mac et Apple Vision Pro, le Lecteur d’accessibilité offre aux utilisateurs des moyens nouveaux de personnaliser le texte et de se concentrer sur le contenu qu’ils souhaitent lire, avec de nombreuses options pour la police, la couleur et l’espacement, ainsi que la prise en charge du contenu audio. »

Le Lecteur d’accessibilité peut être lancé depuis n’importe quelle application et est intégré à l’application Loupe pour interagir avec le texte dans le monde réel, comme dans les livres ou sur les menus de restaurant.

ACCÈS EN BRAILLE

Apple annonce que sa nouvelle expérience d’Accès en Braille peut transformer un appareil Apple en un véritable appareil de prise de notes en braille, profondément intégré dans l’écosystème d’Apple.

« Avec un lanceur d’applications intégré, les utilisateurs peuvent facilement ouvrir n’importe quelle application en tapant avec l’entrée tactile braille ou un appareil braille connecté, » explique Apple. « Avec l’Accès en Braille, les utilisateurs peuvent rapidement prendre des notes au format braille et effectuer des calculs avec le braille Nemeth, un code souvent utilisé dans les classes de mathématiques et de sciences. »

CAPTIONS EN DIRECT SUR APPLE WATCH

Concernant les Captions en direct, watchOS 11, prévu pour cette année, apportera pour la première fois des contrôles de Live Listen sur Apple Watch. Cette fonctionnalité, lancée pour la première fois sur iPhone avec iOS 12, utilise le microphone d’un iPhone pour diffuser le contenu directement vers les AirPods et les appareils auditifs conçus pour iPhone.

Avec watchOS 11, les contrôles de Live Listen seront disponibles sur Apple Watch, permettant aux utilisateurs de démarrer ou d’arrêter à distance des sessions, de revenir à une session pour rattraper des éléments manqués, et plus encore. Il y aura également un support pour les Captions en direct, permettant aux utilisateurs de suivre la conversation grâce à des transcriptions en temps réel directement sur leur Apple Watch.

MIS À JOUR DES PERSONNALISATIONS POUR LA VOIX PERSONNELLE

Apple a également mis à jour la fonctionnalité Voix personnelle, lancée avec iOS 17, pour permettre aux utilisateurs de créer et de sauvegarder une voix qui leur ressemble. En simplifiant le processus de configuration, les utilisateurs n’ont maintenant à enregistrer que 10 phrases différentes, rendant le processus plus rapide et le résultat final plus naturel.

Cette fonctionnalité ajoutera également un support pour l’espagnol (Mexique) cette année.

D’AUTRES FONCTIONNALITÉS D’ACCESSIBILITÉ À VENIR

Ces fonctionnalités ne représentent qu’un aperçu des capacités attendues. Apple prévoit également des mises à jour pour le suivi oculaire, les sons d’arrière-plan, la reconnaissance sonore, et bien plus encore afin de continuer à améliorer l’expérience des utilisateurs en matière d’accessibilité.

Partager un commentaire