
Cette semaine, Bloomberg a rapporté qu’Apple va accélérer le développement de trois nouveaux dispositifs portables intelligents : des lunettes connectées, un pendentif et des AirPods dotés de caméras. Ces produits visent à intégrer Siri plus profondément dans nos vies quotidiennes, et nous allons nous concentrer sur les lunettes.
Il est clair qu’Apple a toujours eu l’ambition de concevoir des lunettes. L’idée de lunettes AR d’Apple circule dans les rumeurs depuis des années . Pour l’instant, ce projet est en pause, et le Vision Pro devra faire l’affaire. Pendant ce temps, l’entreprise vise à développer des lunettes AI, similaires aux Ray-Ban de Meta .
Les Ray-Ban de Meta ont connu un succès fulgurant après leur lancement fin 2023. Malgré la réputation de Meta en matière de violation de la vie privée, de nombreuses personnes sont ravies de posséder une paire de lunettes équipées de caméras. Fondamentalement, ces lunettes disposent de caméras, de microphones et de haut-parleurs, permettant aux utilisateurs d’interagir avec l’assistant AI de Meta, d’écouter de la musique ou de prendre des photos et vidéos.
Depuis l’année dernière, des rumeurs circulent quant à la sortie par Apple de sa propre version des Ray-Ban de Meta dans l’année à venir. Le développement de ce projet a pris un nouvel élan.
Selon les dernières informations, Apple intègre deux objectifs photographiques : l’un pour la vision par ordinateur et l’autre pour la prise de photos et vidéos. L’entreprise a également trouvé un moyen d’intégrer tous les composants dans la monture, alors qu’elle envisageait initialement de s’appuyer sur une batterie externe.
Un atout innovant pour Apple
Lorsqu’il s’agit de produits qui reposent sur la voix pour la communication, il est évident que parler à haute voix n’est pas toujours pratique. C’est pourquoi je n’utilise pas souvent les fonctions d’assistant vocal sur mes Ray-Ban Meta .
Récemment, Apple a acquis une startup pour 2 milliards de dollars, Q.ai, qui se spécialise dans les systèmes d’apprentissage machine pour interpréter les entrées vocales silencieuses.
Actuellement, pour converser avec un assistant vocal, il faut parler de manière assez audible. Même un murmure est parfois difficile à comprendre pour certains modèles vocaux, surtout dans un environnement bruyant. Cette nouvelle acquisition pourrait résoudre ce problème.
Q.ai a également étudié des systèmes capables d’interpréter les micro-mouvements du visage, permettant ainsi de comprendre la parole sans qu’elle soit audible.
Si ces innovations réussissent à se concrétiser, il est fort probable que les lunettes d’Apple séduisent de nombreux utilisateurs et incitent à une utilisation plus sérieuse des assistants vocaux.








