This AI worm can steal private data and send spam emails

Jean Delaunay

Ce ver IA peut voler des données privées et envoyer des spams

Les chercheurs ont créé un ver IA sur lequel il n’est même pas nécessaire de cliquer pour causer des dégâts.

Les chercheurs en sécurité ont créé un ver d’intelligence artificielle (IA) capable d’infiltrer des modèles tels que ChatGPT et Gemini et potentiellement de voler des données.

Basés aux États-Unis et en Israël, les chercheurs ont délibérément construit le ver informatique pour servir de lanceur d’alerte afin d’empêcher leur apparition dans les modèles d’IA générative (GenAI).

Un ver informatique peut se répliquer et se propager en compromettant d’autres machines. Contrairement à d’autres vers, celui-ci n’a pas besoin que vous cliquiez ou ouvriez un e-mail pour recevoir le malware, il le fait automatiquement dès que vous recevez l’e-mail infecté.

Ils ont appelé le ver Morris II en hommage au tout premier ver informatique développé en 1988.

Comment ça marche?

Les chercheurs ont créé un système de messagerie capable de répondre aux messages à l’aide de GenAI, puis de se connecter aux modèles ChatGPT, Gemini et LLaVA.

Morris II a été démontré contre les assistants de messagerie alimentés par GenAI et pourrait voler des données personnelles et lancer des campagnes de spam.

« L’étude démontre que les attaquants peuvent insérer de telles invites dans les entrées qui, lorsqu’elles sont traitées par les modèles GenAI, incitent le modèle à répliquer l’entrée en tant que sortie (réplication) et à s’engager dans des activités malveillantes (charge utile) », ont écrit les chercheurs.

L’invite, qui correspond à toute question ou communication posée au modèle d’IA, oblige le modèle d’IA à répondre par une autre invite, ce qui peut infecter l’assistant d’IA pour ensuite extraire des informations sensibles.

Le ver peut ensuite être envoyé à d’autres contacts de votre réseau en ligne, « en exploitant la connectivité au sein de l’écosystème GenAI », ont-ils ajouté.

Les chercheurs préviennent que même si aucun ver IA n’a été repéré, ce n’est qu’une question de temps.

« Cela signifie essentiellement que vous avez désormais la capacité de mener ou d’effectuer un nouveau type de cyberattaque qui n’a jamais été vu auparavant », a déclaré Ben Nassi, chercheur à l’Université Cornell à l’origine du ver informatique, dans une interview à la publication Wired.

L’étude présente un cas inquiétant, car les assistants IA sont intégrés dans les appareils intelligents et même dans les voitures et peuvent envoyer des e-mails ou prendre des rendez-vous au nom de quelqu’un.

Dans un autre article publié le mois dernier, des chercheurs de Singapour et de Chine ont montré qu’ils pouvaient facilement obtenir un accès root au système d’exploitation d’un grand modèle de langage (LLM).

Laisser un commentaire

9 + cinq =