Comment Google Assistant, Alexa et Siri peuvent être détournés pour donner des réponses malveillantes aux utilisateurs

Comment Google Assistant, Alexa et Siri peuvent être détournés pour donner des réponses malveillantes aux utilisateurs

Les assistants vocaux comme Google, Cortana, Siri, ou encore Alexa sont de plus en plus utilisés et fiables, mais ils ne sont pas toujours protégés contre les attaques qui pourraient remettre en question leurs règles de sécurité et de confidentialité. Des chercheurs explorent les vulnérabilités de ces systèmes aux attaques adverses et proposent des parades pour les rendre plus robustes.

« OK Google, allume les lampes du salon !  », « Dis Siri, quelle est la meilleure recette de lasagnes ? », « Alexa, quel temps fait-il ce matin ? », nous sommes nombreux à utiliser un assistant vocal dans notre quotidien. Avec l'essor de ces intelligences artificielles multimodales capables de traiter à la fois la parole et le texte comme ChatGPT Voice, on élargit le domaine des possibles quasiment à l'infini dans des domaines comme l'assistance vocale, la transcription automatique ou la traduction simultanée.

cndp

Déclaration N° : D-NL-189/2020

Dossier presse : 2022/02

Copyright ©Linformation.ma | Tous Droits Résérvés
Développé par WibDay