
Les rumeurs entourant le lancement de nouveaux AirPods d’Apple dotés de caméras intégrées persistent depuis longtemps. Hier encore, un nouveau leaker a apporté son soutien à cette idée.
La fonction de ces caméras suscite de nombreuses spéculations. Certains avancent qu’elles pourraient être utilisées pour prendre en charge des fonctionnalités visuelles d’Apple Intelligence. Bien que cela soit effectivement envisageable, je ne peux m’empêcher de me demander si ces rapports ne soulignent pas plutôt un support pour des gestes de la main similaires à ceux utilisés par le Vision Pro.
Les caméras des AirPods
Le premier rapport concernant des AirPods avec caméras date d’il y a presque deux ans. Mark Gurman de Bloomberg et l’analyste Apple Ming-Chi Kuo ont tous deux mentionné que cette fonctionnalité serait bientôt disponible, probablement cette année. Cependant, la raison sous-jacente reste floue.
Les spéculations se sont centrées sur deux possibilités principales :
- Les caméras seraient internes, utilisées de manière similaire aux capteurs de l’Apple Watch pour fournir des données de santé. Une caméra infrarouge pourrait théoriquement lire le rythme cardiaque, permettant ainsi à l’AirPods (ou à un iPhone connecté) d’effectuer des analyses similaires à celles réalisées par l’Apple Watch.
- Les caméras pourraient offrir une vue de l’environnement de l’utilisateur afin de permettre des fonctionnalités visuelles d’Apple Intelligence. Cette option a été confirmée par Gurman, qui s’attend à ce développement.
Pour être clair, je ne déprécie aucune de ces deux suggestions, que je considère toutes deux possibles. Cependant, je m’interroge sur l’éventualité que ces caméras soient utilisées pour reconnaître des gestes de la main. Ce type d’interface utilisateur a montré des faiblesses dans des produits comme les casques VR de Meta, mais avec le Vision Pro, Apple a prouvé qu’il est possible de le faire de manière très efficace.
Des gestes de la main plus intuitifs
Les gestes de la main pourraient offrir un moyen plus fluide et plus simple de contrôler les AirPods, par rapport à l’actuelle combinaison de tapotements et de mouvements de tête. Ces méthodes sont souvent confuses et sujettes aux erreurs, car un simple tapotement déclenche plusieurs fonctions selon le nombre de répétitions et leur rapidité :
- Lecture/pause
- Suivant
- Précédent
- Changer le mode ANC
- Augmenter le volume
- Réduire le volume
- Répondre à un appel
- Refuser un appel
- Mettre fin à un appel
Il est facile d’imaginer comment des gestes de la main pourraient être à la fois plus intuitifs et moins propices aux erreurs, grâce à des caméras fonctionnant dans des plages de lumière visible ou infrarouge.
Quelle est votre théorie ?
Pensez-vous que les caméras des futurs AirPods serviront à reconnaître des gestes, à des mesures de santé, à des fonctionnalités visuelles d’Apple Intelligence, ou croyez-vous que ces rapports sont erronés et que cette fonctionnalité ne verra pas le jour ?








