Des chercheurs de la Ruhr-Universität de Bochum en Allemagne ont découvert certaines commandes qui peuvent activer Siri par inadvertance et d’autres assistants virtuels.

Siri

Siri n’est certainement pas le seul assistant virtuel qui s’active par inadvertance avec de faux déclencheurs. Cette étude a révélé certaines commandes qui parviennent presque toujours à activer l’assistant virtuel d’Apple. Par exemple, Siri peut être activé avec des commandes telles que “A city” ou “Hey Jerry“, évidemment avec la bonne prononciation en anglais.

L’étude a compilé une liste de plus de 1 000 mots pouvant activer accidentellement plusieurs assistants virtuels. La même chose s’applique également à Amazon Alexa, Microsoft Cortana et Google Assistant. Les chercheurs soulignent que ces assistants virtuels peuvent être activés par inadvertance même par des émissions de télévision et des films.

Par exemple, Alexa est activée avec les mots “unacceptable” et “election“, tandis que Google Assistant avec la commande “OK, cool“.

Le Dr Dorothea Kolossa, chef de l’étude, a expliqué que « …les appareils sont délibérément programmés pour être un peu plus tolérants dans la réception des commandes, car ils devraient être capables de comprendre leurs humains. Par conséquent, ils sont plus susceptibles de recommencer plutôt que de rien faire ».

Du point de vue de la confidentialité, le problème avec ces mots éveillés est qu’ils peuvent impliquer l’envoi audio aux producteurs lorsqu’ils ne sont pas fournis par l’utilisateur. Apple et Amazon ont toutefois activé une série d’actions que les utilisateurs peuvent effectuer pour limiter la collecte de données. Rappelons qu’elles sont effectuées de manière anonyme pour améliorer la qualité des assistants virtuels.

« Du point de vue de la confidentialité, les faux déclencheurs sont évidemment alarmants, car des conversations très privées peuvent parfois être entendues par des étrangers », a déclaré Thorsten Holz, un autre chercheur du projet. « D’un point de vue technique, cependant, cette approche est tout à fait compréhensible, car les systèmes ne peuvent être améliorés qu’en utilisant ces données. Les fabricants doivent trouver un équilibre entre la protection des données et l’optimisation technique ».

Et vous, avez-vous déjà remarqué de mauvaises activations de Siri avec des commandes complètement différentes de “Hey Siri” ?

LAISSER UN COMMENTAIRE

Saisissez votre commentaire
Entrez votre nom