Studie findet Exploits in ChatGPT, Hacker können alle Ihre Gespräche mitlesen
Wenn Sie ChatGPT persönliche Angelegenheiten mitteilen oder Fragen stellen, bei denen private Informationen offengelegt werden, hören Sie damit sofort auf. Eine aktuelle Studie legt nahe, dass Chatbots, einschließlich ChatGPT, gehackt werden könnten und alle Ihre Konversationen/Chats für Angreifer zugänglich sein könnten!
In der an der israelischen Ben-Gurion-Universität durchgeführten Studie haben Forscher einen Seitenkanal-Exploit festgestellt, der in fast allen gängigen KI-basierten Chatbots außer Google Gemini vorhanden ist und die gesamte Konversation mit hoher, wenn auch nicht 100-prozentiger Genauigkeit offenlegen könnte.
In einer E-Mail an Ars Technica sagte Yisroel Mirsky, Leiter des Offensive AI Research Lab an der Ben-Gurion-Universität:
Forscher beleuchten die Schwachstellen in KI-basierten Chatbots
Die Studie ist komplex und für einen normalen Benutzer etwas schwierig zu verstehen. Vereinfacht ausgedrückt nutzten die Forscher die Sicherheitslücke im Seitenkanal aus, um Tokens (Daten, die LLMs dabei helfen, Benutzereingaben zu übersetzen) zu erwerben und daraus dann mit einer Genauigkeit von 55 % Rückschlüsse auf die Konversation zu ziehen.
Forscher nutzten die Seitenkanal-Angriffstechnik, weil sie damit, anstatt das System direkt anzugreifen, die Informationen sammeln konnten, die es unbeabsichtigt weitergab. Auf diese Weise könnten sie die integrierten Schutzprotokolle, einschließlich der Verschlüsselung, umgehen.
Diese Token wurden dann durch zwei speziell trainierte LLMs (Large Language Models) laufen gelassen, die den Inhalt in Textformat übersetzen konnten. Dies ist praktisch unmöglich, wenn Sie manuell vorgehen.
Da Chatbots jedoch einen eigenen Stil haben, konnten Forscher LLMs trainieren, die Eingabeaufforderungen effektiv zu entschlüsseln. Ein LLM wurde darauf trainiert, den ersten Satz der Antwort zu identifizieren, während der andere auf der Grundlage des Kontexts an inneren Sätzen arbeitete.
In der E-Mail an Ars Technica erklären sie es wie folgt:
Dieser Durchbruch wird auch in ihrer Forschungsarbeit erwähnt.
Die Forscher haben ein Demovideo des gesamten Prozesses, von der Verkehrsüberwachung bis zur Antwortinferenz, auf YouTube veröffentlicht .
Ihr ChatGPT-Chat ist also nicht so sicher, wie Sie dachten, und Hacker könnten ihn leicht lesen! Auch wenn der Seitenkanal-Exploit im Chatbot von Google nicht vorhanden war, haben Forscher bereits zuvor Gemini AI und Cloud Console gehackt .
Darüber hinaus kam es zu einem deutlichen Anstieg von Cyberangriffen, nachdem KI zum Mainstream wurde. Ein aktueller Bericht von Microsoft legt nahe, dass in Großbritannien 87 % der Unternehmen dem Risiko von KI-gestützten Cyberangriffen ausgesetzt sind .
Der Präsident von Microsoft, Brad Smith, äußerte seine Bedenken hinsichtlich der KI und forderte sofortige Vorschriften!
Was denken Sie über den Aufstieg der KI? Teilen Sie es mit unseren Lesern im Kommentarbereich.
Wir haben beobachtet, dass LLMs, die in KI-Assistentendiensten verwendet werden, unterschiedliche Schreibstile aufweisen und manchmal Phrasen aus ihren Trainingsdaten wiederholen, eine Vorstellung, die auch von anderen Forschern bestätigt wurde. Das Erkennen dieser Eigenschaft ermöglicht es uns, einen Angriff durchzuführen, der einem Known-Plaintext-Angriff ähnelt. Die Methode beinhaltet das Zusammenstellen eines Datensatzes mit Antworten vom Ziel-LLM unter Verwendung öffentlicher Datensätze oder durch das Senden von Eingabeaufforderungen als bezahlter Benutzer. Der Datensatz kann dann zur weiteren Feinabstimmung des Inferenzmodells verwendet werden. Dadurch ist das Inferenzmodell in der Lage, die Entropie erheblich zu reduzieren und manchmal sogar die Antwort R von T Wort für Wort perfekt vorherzusagen.
Es ist, als würde man versuchen, ein Rätsel bei „Wheel of Fortune“ zu lösen, aber es ist kein kurzer Satz, sondern ein ganzer Absatz mit Sätzen, und keiner der Charaktere wurde enthüllt. KI (LLMs) sind jedoch sehr gut darin, langfristige Muster zu erkennen und können diese Rätsel mit bemerkenswerter Genauigkeit lösen, wenn genügend Beispiele aus anderen Spielen vorliegen.
Derzeit kann jeder private Chats lesen, die von ChatGPT und anderen Diensten gesendet werden. Dazu gehören böswillige Akteure im selben WLAN oder LAN wie ein Kunde (z. B. dasselbe Café) oder sogar ein böswilliger Akteur im Internet – jeder, der den Datenverkehr beobachten kann. Der Angriff ist passiv und kann ohne Wissen von OpenAI oder dem Kunden erfolgen. OpenAI verschlüsselt seinen Datenverkehr, um solche Abhörangriffe zu verhindern. Unsere Untersuchungen zeigen jedoch, dass die Art und Weise, wie OpenAI die Verschlüsselung verwendet, fehlerhaft ist und der Inhalt der Nachrichten dadurch offengelegt wird.
Schreibe einen Kommentar