研究發現 ChatGPT 存在漏洞,駭客可以讀取你的所有對話
如果您與 ChatGPT 分享個人事務或提出洩露私人資訊的問題,請立即停止。最近的一項研究表明,包括 ChatGPT 在內的聊天機器人可能會被駭客攻擊,攻擊者可能會存取您的所有對話/聊天!
在以色列本古里安大學進行的研究中,研究人員發現,除了Google Gemini 之外,幾乎所有流行的基於人工智慧的聊天機器人都存在側頻道漏洞,它可以高精度地揭示整個對話,儘管不是100% 。
本古里安大學進攻性人工智慧研究實驗室負責人 Yisroel Mirsky在給Ars Technica的電子郵件中表示,
研究人員揭示了基於人工智慧的聊天機器人的漏洞
這項研究很複雜,對於一般使用者來說有點難以理解。簡單來說,研究人員利用側通道漏洞來取得代幣(幫助法學碩士翻譯使用者輸入的資料),然後用它們來推斷對話,準確率高達 55%。
研究人員利用側通道攻擊技術,因為透過它,他們可以收集系統無意中共享的信息,而不是直接攻擊系統。這樣,他們就可以繞過內建的保護協議,包括加密。
然後,這些令牌透過兩個經過專門訓練的 LLM(大型語言模型)運行,它們可以將內容翻譯成文字格式。如果您採用手動方法,這實際上是不可能的。
然而,由於聊天機器人具有獨特的風格,研究人員能夠訓練法學碩士有效地破解提示。一名法學碩士接受培訓以識別回應的第一句話,而另一名法學碩士則根據上下文研究內部句子。
在給 Ars Technica 的電子郵件中,他們解釋為:
他們的研究論文中也提到了這個突破。
研究人員在YouTube上分享了從流量攔截到響應推理的整個過程的演示影片。
所以,您的 ChatGPT 聊天內容並不像您想像的那麼安全,駭客可能很容易讀取它!儘管Google的聊天機器人中不存在側通道漏洞,但研究人員之前已經侵入了 Gemini AI 和 Cloud Console。
此外,人工智慧成為主流後,網路攻擊顯著增加。微軟最近的一份報告顯示,在英國,87% 的公司面臨人工智慧網路攻擊的風險。
微軟總裁布拉德史密斯對人工智慧也有同樣的擔憂,並呼籲立即進行監管!
您如何看待人工智慧的興起?在評論部分與我們的讀者分享。
我們觀察到,人工智慧助理服務中使用的法學碩士表現出獨特的寫作風格,有時會重複訓練資料中的短語,這一觀點也得到了其他研究人員的讚同。認識到這一特徵使我們能夠進行類似於已知明文攻擊的攻擊。該方法涉及使用公共資料集或透過以付費使用者身分發送提示來編譯目標法學碩士回應的資料集。然後可以使用該資料集進一步微調推理模型。因此,推理模型能夠顯著降低熵,有時甚至可以逐字完美預測 T 的反應 R。
這就像試圖解決《命運之輪》中的一個謎題,但它不是一個簡短的短語,而是一整段短語,而且沒有一個字符被揭示。然而,人工智慧(法學碩士)非常擅長觀察長期模式,並且可以在其他遊戲中提供足夠的範例的情況下非常準確地解決這些難題。
目前,任何人都可以閱讀從 ChatGPT 和其他服務發送的私人聊天內容。這包括與客戶端位於同一 Wi-Fi 或 LAN 上(例如,同一家咖啡店)的惡意行為者,甚至是網路上的惡意行為者(任何可以觀察流量的人)。這種攻擊是被動的,可能在 OpenAI 或其客戶不知情的情況下發生。 OpenAI 對其流量進行加密以防止此類竊聽攻擊,但我們的研究表明 OpenAI 使用加密的方式有缺陷,因此訊息內容被揭露。
發佈留言