Ces derniers jours, Apple a publié une mise à jour du micrologiciel pour les AirPods Pro de deuxième génération qui apporte de nouvelles fonctionnalités, notamment l’audio adaptatif. La fonctionnalité combine les modes Transparence et Suppression du bruit et les équilibre en fonction de l’environnement externe. Il est intéressant de noter qu’Apple a envisagé d’utiliser le GPS de l’iPhone pour contrôler les niveaux audio adaptatifs, ce qui n’a finalement pas été fait.

airpods pro 2 processeur 2

Dans une interview avec TechCrunch, les dirigeants d’Apple, Ron Huang et Eric Treski, ont parlé des nouvelles fonctionnalités des AirPods Pro.

En plus de l’audio adaptatif, le nouveau micrologiciel comprend également un volume personnalisé, qui ajuste le volume des médias en fonction des conditions environnementales, et une prise en compte de la conversation, qui réduit le volume des médias et améliore les voix devant vous lorsque vous commencez à parler.

En ce qui concerne l’audio adaptatif, cela peut ressembler à la transparence adaptative, une fonctionnalité annoncée l’année dernière pour les AirPods Pro. Avec la transparence adaptative, les écouteurs surveillent en permanence le son externe pour réduire certains bruits gênants, même lorsque le mode transparence est activé. L’audio adaptatif, en revanche, fait bien plus.

audio adaptatif gps airpods pro

Treski a expliqué que le nouveau mode fonctionne plus lentement que la transparence adaptative, mais c’est parce qu’il existe un « processus beaucoup plus méthodique pour savoir ce que vous écoutez » pour ajuster intelligemment le spectre entre la transparence et la suppression du bruit.

Le système identifie si vous écoutez une chanson ou un podcast, tandis que les microphones à l’intérieur des AirPod mesurent le volume dans vos oreilles pour avoir une idée du niveau d’audition de l’utilisateur. Mais lors du développement de cette fonctionnalité, Apple a essayé une approche complètement différente.

Au lieu de s’appuyer sur des microphones et d’autres capteurs, Apple a envisagé d’utiliser le GPS de l’iPhone pour déterminer quand l’utilisateur se trouvait dans un endroit bruyant et ajuster les niveaux audio adaptatifs. Ainsi, par exemple, les AirPods passeraient automatiquement en mode Transparence lorsque l’utilisateur marchait dans la rue.

 » Lors de l’exploration initiale d’Adaptive Audio, nous avons essentiellement basculé entre l’ANC et la transparence, en fonction de l’endroit où vous vous trouviez « , a expliqué Huang.  » Vous pouvez imaginer que le téléphone puisse donner un indice aux AirPods et dire : ‘hé, tu es à la maison’ et ainsi de suite. « 

« Après tout ce que nous avons appris, nous ne pensons pas que ce soit la bonne façon de procéder, et ce n’est pas ce que nous avons fait. Bien sûr, votre maison n’est pas toujours calme et les rues ne sont pas toujours bruyantes. Nous avons décidé qu’au lieu de se fier à une indication sur l’emplacement du téléphone, les AirPods devraient surveiller l’environnement en temps réel et prendre eux-mêmes ces décisions de manière intelligente », a-t-il ajouté.

Pour la fonctionnalité Custom Volume, Apple affirme avoir analysé « des heures de données » sur la façon dont les utilisateurs écoutent différents contenus dans différents environnements pour comprendre leurs préférences. Les AirPods mémorisent également les préférences de l’utilisateur en fonction de l’endroit où il se trouve et de la quantité de bruit présent : tout se passe sur l’appareil.

En ce qui concerne la conscience conversationnelle, la fonctionnalité attend non seulement de détecter une voix prédominante, mais utilise des accéléromètres pour détecter les mouvements de la mâchoire afin de s’assurer que c’est l’utilisateur qui parle, et non quelqu’un d’autre à proximité.

Partager un commentaire