Une étude révèle des exploits dans ChatGPT, les pirates peuvent lire toutes vos conversations

Une étude révèle des exploits dans ChatGPT, les pirates peuvent lire toutes vos conversations

Si vous partagez des questions personnelles avec ChatGPT ou posez des questions dans lesquelles des informations privées sont divulguées, arrêtez cela immédiatement. Une étude récente suggère que les chatbots, dont ChatGPT, pourraient être piratés et que toutes vos conversations/chats pourraient être accessibles aux attaquants !

Dans l’étude menée à l’Université Ben Gourion d’Israël, les chercheurs ont découvert un exploit de canal secondaire présent dans presque tous les chatbots populaires basés sur l’IA, à l’exception de Google Gemini, qui pourrait révéler l’intégralité de la conversation avec une grande précision, mais pas à 100 %.

Dans un e-mail adressé à Ars Technica , Yisroel Mirsky, directeur du laboratoire de recherche sur l’IA offensive à l’Université Ben Gourion, a déclaré :

Des chercheurs mettent en lumière les vulnérabilités des chatbots basés sur l’IA

L’étude est complexe et légèrement difficile à comprendre pour un utilisateur régulier. En termes simples, les chercheurs ont exploité la vulnérabilité des canaux secondaires pour acquérir des jetons (des données qui aident les LLM à traduire les entrées des utilisateurs), puis les ont utilisés pour déduire la conversation avec une précision de 55 %.

Les chercheurs ont exploité la technique d’attaque par canal secondaire car, au lieu d’attaquer directement le système, ils pouvaient collecter les informations partagées par inadvertance. De cette façon, ils pourraient contourner les protocoles de protection intégrés, y compris le cryptage.

Ces jetons ont ensuite été exécutés via deux LLM (Large Language Models) spécialement formés, capables de traduire le contenu au format texte. C’est pratiquement impossible si vous adoptez une approche manuelle.

Cependant, comme les chatbots ont un style distinct, les chercheurs ont pu former des LLM pour déchiffrer efficacement les invites. Un LLM a été formé pour identifier la première phrase de la réponse, tandis que l’autre a travaillé sur des phrases intérieures en fonction du contexte.

Dans l’e-mail adressé à Ars Technica, ils l’expliquent ainsi :

Cette avancée est également mentionnée dans leur document de recherche.

Les chercheurs ont partagé une vidéo de démonstration de l’ensemble du processus, de l’interception du trafic à l’inférence de réponse, sur YouTube .

Ainsi, votre chat ChatGPT n’est pas aussi sûr que vous le pensiez, et les pirates peuvent facilement le lire ! Même si l’exploit du canal secondaire n’était pas présent dans le chatbot de Google, les chercheurs ont déjà piraté Gemini AI et Cloud Console .

En outre, les cyberattaques ont considérablement augmenté depuis que l’IA est devenue courante. Un récent rapport de Microsoft suggère qu’au Royaume-Uni, 87 % des entreprises courent le risque d’être confrontées à des cyberattaques basées sur l’IA .

Le président de Microsoft, Brad Smith, a eu son lot d’ inquiétudes concernant l’IA et a appelé à une réglementation immédiate !

Que pensez-vous de l’essor de l’IA ? Partagez avec nos lecteurs dans la section commentaires.

Nous avons observé que les LLM utilisés dans les services d’assistant d’IA présentent des styles d’écriture distincts et répètent parfois des phrases de leurs données de formation, une notion également reprise par d’autres chercheurs. Reconnaître cette caractéristique nous permet de mener une attaque similaire à une attaque en texte clair connue. Le procédé consiste à compiler un ensemble de données de réponses du LLM cible à l’aide d’ensembles de données publics ou via l’envoi d’invites en tant qu’utilisateur payant. L’ensemble de données peut ensuite être utilisé pour affiner davantage le modèle d’inférence. En conséquence, le modèle d’inférence est capable de réduire considérablement l’entropie, et parfois même de prédire parfaitement la réponse R de T, mot pour mot.

C’est comme essayer de résoudre une énigme sur la Roue de la Fortune, mais au lieu que ce soit une courte phrase, c’est tout un paragraphe de phrases et aucun des personnages n’a été révélé. Cependant, l’IA (LLM) est très efficace pour examiner les modèles à long terme et peut résoudre ces énigmes avec une précision remarquable, compte tenu de suffisamment d’exemples tirés d’autres jeux.

Actuellement, n’importe qui peut lire les discussions privées envoyées depuis ChatGPT et d’autres services. Cela inclut les acteurs malveillants sur le même réseau Wi-Fi ou LAN qu’un client (par exemple, le même café), ou même un acteur malveillant sur Internet, c’est-à-dire toute personne pouvant observer le trafic. L’attaque est passive et peut se produire à l’insu d’OpenAI ou de son client. OpenAI chiffre son trafic pour empêcher ce type d’attaques d’écoute clandestine, mais nos recherches montrent que la manière dont OpenAI utilise le chiffrement est erronée et que le contenu des messages est donc exposé.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *