Search

Siri et Alexa réagissent à des commandes inaudibles pour les humains

Un chercheur en sécurité informatique a développé une méthode, jusqu'ici infaillible, pour transmettre à Amazon Alexa, Google Now et autres Siri des commandes vocales totalement inaudibles pour l'oreille humaine.

Tous les assistants vocaux disponibles sur le marché seraient plus ou moins touchés.

google home

Une nouvelle porte d'entrée pour les hackers


C'est la version 2.0 du message subliminal : Nicholas Carlini, doctorant à UC Berkeley et spécialiste de la sécurité informatique, est parvenu à insérer des phrases dissimulées dans des morceaux de musique, complètement inaudibles à l'oreille humaine, mais auxquelles la reconnaissance vocale des assistants réagit bien.

En entendant ces commandes, ces derniers peuvent prendre des photos, envoyer des messages et visiter des sites malicieux. Selon la marque de l'assistant vocal et ses paramétrages, il peut même ouvrir des serrures, envoyer de l'argent et faire des achats en ligne. Le travail de Nicholas Carlini est censé démontrer la vulnérabilité des différents assistants vocaux disponibles sur le marché à ce type d'attaque.

Retransmis via une enceinte, les messages cachés sont captés par l'assistant vocal, qui exécute aussitôt la commande. Dans son article, Nicholas Carlini montre comment, avec quelques modifications - même mineures - des ondes, les assistants domestiques se mettent à confondre des mots. Clin d'œil au fameux « cocaine noodles », faussement interprété par Google Assistant comme un « OK Google » !

google assistant

Les fabricants se défendent


Le travail de Nicholas Carlini fait écho à celui d'autres étudiants de UC Berkeley et de l'Université de Georgetown, qui sont parvenus, en 2016, à contraindre des smartphones à visiter tel ou tel site, ou encore de mettre ces téléphones sur mode avion en les exposant à ce qui est perçu par l'oreille humaine comme du simple bruit blanc.

Et même si ces ondes malicieuses ne peuvent pas (encore) franchir les murs, il est en revanche possible de détourner un assistant vocal en les diffusant via une vidéo YouTube, tout simplement.

L'information est d'autant plus inquiétante que, selon une étude d'Ovum, d'ici 2021, le nombre d'appareils intégrant un assistant vocal devrait surpasser celui des humains. Interrogés par le New York Times, les principaux fabricants se défendent : Apple a rappelé qu'elle demande systématiquement le déblocage de l'iPhone avant de laisser Siri exécuter des commandes pouvant avoir des conséquences appréciables (faire une réservation ou un achat), tandis qu'Amazon a répondu vérifier systématiquement l'« empreinte vocale » de la personne prononçant une commande, avant de dévoiler des informations personnelles sensibles.

Sources : Nicholas Carlini, Ovum, The New York Times.

Modifié le 11/05/2018 à 11h12

Let's block ads! (Why?)

http://www.clubic.com/antivirus-securite-informatique/actualite-843539-siri-alexa-reagissent-commandes-inaudibles-humains.html

Bagikan Berita Ini

0 Response to "Siri et Alexa réagissent à des commandes inaudibles pour les humains"

Post a Comment

Powered by Blogger.