Apple et l’Université de l’Illinois s’associent à Google, Meta et à d’autres entreprises technologiques pour collaborer sur un projet appelé Speech Accessibility Project.

apple meta google speech accessibility

L’objectif de l’initiative est d’étudier comment des algorithmes d’intelligence artificielle peuvent être développés pour améliorer la reconnaissance vocale des utilisateurs souffrant de maladies qui affectent le langage, notamment la SLA et le syndrome de Down.

Engadget est le premier site à rendre compte du Speech Accessibility Project, qui n’a pas encore été mis en ligne pour le moment. Selon le rapport, les entreprises technologiques partenaires de l’Université de l’Illinois comprennent Amazon, Apple, Google, Meta et Microsoft. L’équipe à but non lucratif Gleason, qui fournit des soins aux personnes atteintes de SLA, et la Fondation Davis Phinney pour Parkinson travaillent également sur le projet d’accessibilité de la parole.

Au cours de la dernière décennie, Apple et d’autres entreprises technologiques ont innové dans le secteur des assistants vocaux avec des outils tels que Siri, Amazon Alexa, Google Assistant, etc. Apple a également investi dans des technologies telles que VoiceOver et Voice Control, qui sont les meilleures de leur catégorie pour les utilisateurs malvoyants ou à mobilité réduite.

Cependant, les fonctions vocales sont aussi bonnes que les algorithmes qui les alimentent, ce qui est essentiel pour atteindre les utilisateurs atteints de la maladie de Lou Gehrig, de paralysie cérébrale et d’autres troubles du langage.

Partager un commentaire