Un malware caché dans la musique peut compromettre Siri, Google Assistant et Alexa

 

Plusieurs étudiants de Berkeley ont montré qu’il est possible de cacher de véritables commandes « malware » dans la musique et d’exploiter Siri, Google Assistant et Alexa pour lancer des commandes spécifiques.

La simple lecture d’une piste audio ou d’une piste par radio, streaming ou podcast pourrait permettre à des pirates de prendre le contrôle d’une maison intelligente. Au cours des deux dernières années, des chercheurs en Chine et aux États-Unis ont commencé à démontrer qu’ils pouvaient envoyer des commandes cachées, non détectables à l’oreille humaine, à Siri, Alexa d’Amazon et à Google Assistant. Au sein des laboratoires universitaires, les chercheurs ont pu activer secrètement des systèmes domotiques via des smartphones ou des haut-parleurs intelligents, composer des numéros de téléphone ou ouvrir des sites Web. Entre de mauvaises mains, cette technologie pourrait être utilisée pour déverrouiller des portes, envoyer de l’argent ou acheter des objets en ligne, simplement avec de la musique en streaming.

Les étudiants de Berkeley ont même réussi à effectuer ce genre d’opérations à travers des textes parlés, par exemple à travers un podcast normal :

« En modifiant légèrement les fichiers audio, les chercheurs ont pu annuler le son que le système de reconnaissance vocale devait écouter et le remplacer par un son qui aurait été perçu différemment par les appareils, même s’il était presque imperceptible à l’oreille humaine. »

Par exemple, les chercheurs ont pu cacher le « O.K. Google, allez sur evil.com » dans une phrase simple précédemment enregistrée. Ces commandes ont également été cachées dans les clips audio.

Les chercheurs déclarent qu’il n’y a aucune preuve d’utilisation réelle de cette méthode, mais les choses pourraient changer avec l’utilisation généralisée des appareils intelligents chez les utilisateurs.

Apple a assuré que Siri intègre certaines protections qui limitent les possibilités d’effectuer ce type d’attaque. De plus, le HomePod est conçu pour empêcher les commandes vocales d’effectuer des opérations sensibles telles que le déverrouillage d’une porte. Pour effectuer ces opérations, il est nécessaire de lancer la commande sur un iPhone ou un iPad déjà déverrouillé par mot de passe, Touch ID ou Face ID.

 
  • 21371 Posts
  • 8356 Comments
Fondateur & Rédacteur
Aucun commentaire pour l’instant! Vous êtes le premier à commenter.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.