Alexa, l’Assistant Google et Siri potentiellement piratables par des commandes inaudibles

Plusieurs groupes de chercheurs américains et chinois ont démontré qu’il est possible d’insérer des commandes subsoniques dans des morceaux de musique ou des vidéos YouTube pour prendre le contrôle des principaux assistants vocaux.
Source : Zdnet
Lire l’article >> Alexa, l’Assistant Google et Siri potentiellement piratables par des commandes inaudibles