Apple a publié un nouvel article sur son journal Machine Learning Journal, un blog dédié à l’apprentissage automatique.
Cette fois-ci, les ingénieurs du son d’Apple ont expliqué les problèmes auxquels ils étaient confrontés lors de l’intégration de la reconnaissance vocale dans le HomePod, ainsi que la manière dont le haut-parleur utilisait des modèles d’apprentissage automatique utilisant la puce A8.
Les ingénieurs expliquent que le HomePod doit pouvoir conserver une reconnaissance vocale extrêmement précise, même lorsqu’il diffuse de la musique forte via le haut-parleur lui-même, lorsque l’utilisateur est absent et lorsqu’il y a d’autres bruits dans la pièce.
Cet article est destiné à un public très technique, et le langage utilisé par Apple reflète clairement cet objectif. En résumé, Apple explique que le HomePod utilise un filtre multicanal personnalisé pour éliminer les échos et le bruit de fond, grâce à des modèles d’apprentissage automatique qui isolent la voix de l’utilisateur qui a prononcé la commande « Hey Siri », même comparé aux voix des autres personnes présentes dans la pièce.
Tous les mécanismes de ce système sont ensuite expliqués, également au moyen de formules mathématiques qui plairont à tous les ingénieurs. Par exemple, Apple explique que le processeur audio multicanal utilise moins de 15% d’un seul noyau de la puce A8 qui se trouve à l’intérieur du HomePod.
› Plus d’informations sur Machine Learning Journal