Voici les vers IA

Voici les vers IA

À mesure que les systèmes d’IA générative comme ChatGPT d’OpenAI et Gemini de Google deviennent plus avancés, ils sont de plus en plus utilisés. Les startups et les entreprises technologiques créent des agents et des écosystèmes d’IA au-dessus des systèmes qui peuvent effectuer des tâches ennuyeuses à votre place : pensez à effectuer automatiquement des réservations de calendrier et éventuellement à acheter des produits. Mais à mesure que les outils bénéficient de plus de liberté, cela augmente également les possibilités d’attaque contre eux.

Aujourd’hui, dans le cadre d’une démonstration des risques liés aux écosystèmes d’IA autonomes et connectés, un groupe de chercheurs a créé l’un de ce qu’ils prétendent être les premiers vers d’IA génératifs, qui peuvent se propager d’un système à un autre, volant potentiellement des données ou déployant des logiciels malveillants dans le système. processus. “Cela signifie essentiellement que vous avez désormais la possibilité de mener ou d’exécuter un nouveau type de cyberattaque qui n’a jamais été vu auparavant”, explique Ben Nassi, chercheur de Cornell Tech à l’origine de la recherche.

Nassi, avec ses collègues chercheurs Stav Cohen et Ron Bitton, a créé le ver, surnommé Morris II, en clin d’œil au ver informatique original Morris qui a semé le chaos sur Internet en 1988. Dans un document de recherche et un site Web partagés exclusivement avec WIRED, le les chercheurs montrent comment le ver IA peut attaquer un assistant de messagerie génératif IA pour voler des données dans des e-mails et envoyer des messages indésirables, brisant ainsi certaines protections de sécurité dans ChatGPT et Gemini.

Lire aussi  Green Hell publie une mise à jour sur l'élevage d'animaux pour les consoles

La recherche, qui a été entreprise dans des environnements de test et non contre un assistant de messagerie accessible au public, intervient alors que les grands modèles de langage (LLM) deviennent de plus en plus multimodaux, capables de générer des images et des vidéos ainsi que du texte. Bien que les vers d’IA générative n’aient pas encore été repérés dans la nature, plusieurs chercheurs affirment qu’ils constituent un risque de sécurité dont les startups, les développeurs et les entreprises technologiques devraient s’inquiéter.

La plupart des systèmes d’IA générative fonctionnent en recevant des invites, des instructions textuelles qui indiquent aux outils de répondre à une question ou de créer une image. Cependant, ces invites peuvent également être utilisées comme arme contre le système. Les jailbreaks peuvent amener un système à ignorer ses règles de sécurité et à diffuser du contenu toxique ou haineux, tandis que des attaques par injection rapide peuvent donner des instructions secrètes à un chatbot. Par exemple, un attaquant peut cacher du texte sur une page Web indiquant à un LLM d’agir comme un escroc et de vous demander vos coordonnées bancaires.

Pour créer le ver génératif à IA, les chercheurs se sont tournés vers ce que l’on appelle une « invite contradictoire à auto-réplication ». Il s’agit d’une invite qui déclenche le modèle d’IA générative pour qu’il génère, dans sa réponse, une autre invite, disent les chercheurs. En bref, le système d’IA doit produire un ensemble d’instructions supplémentaires dans ses réponses. Selon les chercheurs, cette situation est globalement similaire aux attaques traditionnelles par injection SQL et par débordement de tampon.

Lire aussi  Les chefs de la cybersécurité gèrent les risques liés à l'IA et les récompenses potentielles

Pour montrer comment le ver peut fonctionner, les chercheurs ont créé un système de messagerie capable d’envoyer et de recevoir des messages à l’aide de l’IA générative, en se connectant à ChatGPT, Gemini et au LLM open source, LLaVA. Ils ont ensuite trouvé deux façons d’exploiter le système : en utilisant une invite auto-répliquante basée sur du texte et en intégrant une invite auto-répliquante dans un fichier image.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick