Badanie wykazało exploity w ChatGPT, hakerzy mogą przeczytać wszystkie Twoje rozmowy
Jeśli dzielisz się sprawami osobistymi z ChatGPT lub zadajesz pytania, w których ujawniane są prywatne informacje, natychmiast przestań to robić. Niedawne badanie sugeruje, że chatboty, w tym ChatGPT, mogą zostać zhakowane, a wszystkie Twoje rozmowy/czaty mogą być dostępne dla atakujących!
W badaniu przeprowadzonym na izraelskim Uniwersytecie Ben-Guriona naukowcy odkryli exploit kanału bocznego występujący w prawie każdym popularnym chatbocie opartym na sztucznej inteligencji, z wyjątkiem Google Gemini, który może ujawnić całą rozmowę z dużą dokładnością, choć nie w 100%.
W e-mailu do Ars Technica Yisroel Mirsky, szef laboratorium badawczego ofensywnej sztucznej inteligencji na Uniwersytecie Ben-Guriona, powiedział:
Badacze rzucają światło na luki w chatbotach opartych na sztucznej inteligencji
Badanie jest złożone i nieco trudne do zrozumienia dla zwykłego użytkownika. Mówiąc prościej, badacze wykorzystali lukę w zabezpieczeniach kanału bocznego w celu zdobycia tokenów (danych, które pomagają firmom LLM tłumaczyć dane wejściowe użytkowników), a następnie wykorzystali je do wywnioskowania rozmowy z 55% dokładnością.
Badacze wykorzystali technikę ataku kanałem bocznym, ponieważ zamiast bezpośrednio atakować system, mogli zebrać nieumyślnie udostępnione informacje. W ten sposób mogliby ominąć wbudowane protokoły ochrony, w tym szyfrowanie.
Tokeny te zostały następnie przepuszczone przez dwa specjalnie przeszkolone modele LLM (Large Language Models), które mogły przetłumaczyć zawartość na format tekstowy. Jest to praktycznie niemożliwe, jeśli zastosujesz podejście ręczne.
Ponieważ jednak chatboty mają odrębny styl, badacze byli w stanie wyszkolić LLM, aby skutecznie rozszyfrowywały podpowiedzi. Jeden LLM został przeszkolony w identyfikowaniu pierwszego zdania odpowiedzi, podczas gdy drugi pracował nad wewnętrznymi zdaniami w oparciu o kontekst.
W e-mailu do Ars Technica wyjaśniają to następująco:
O tym przełomie wspomniano także w ich artykule badawczym.
Badacze udostępnili na YouTube film demonstracyjny całego procesu, od przechwytywania ruchu po wnioskowanie o odpowiedzi .
Zatem Twój czat ChatGPT nie jest tak bezpieczny, jak myślałeś, a hakerzy mogą go łatwo odczytać! Mimo że chatbot Google nie zawierał exploita kanału bocznego, badacze włamali się już wcześniej do Gemini AI i Cloud Console.
Poza tym po tym, jak sztuczna inteligencja stała się głównym nurtem, nastąpił znaczny wzrost liczby cyberataków . Z niedawnego raportu Microsoftu wynika, że w Wielkiej Brytanii 87% firm jest narażonych na ryzyko cyberataków wykorzystujących sztuczną inteligencję .
Prezes Microsoftu, Brad Smith, miał swoje wątpliwości dotyczące sztucznej inteligencji i wezwał do natychmiastowych wprowadzenia przepisów!
Co sądzisz o rozwoju sztucznej inteligencji? Podziel się z naszymi czytelnikami w sekcji komentarzy.
Zaobserwowaliśmy, że LLM wykorzystywane w usługach asystentów AI charakteryzują się odmiennym stylem pisania i czasami powtarzają frazy z danych szkoleniowych, co potwierdzają również inni badacze. Rozpoznanie tej cechy umożliwia nam przeprowadzenie ataku podobnego do ataku ze znanym tekstem jawnym. Metoda polega na zestawieniu zbioru danych odpowiedzi z docelowego LLM przy użyciu publicznych zbiorów danych lub poprzez wysyłanie podpowiedzi jako płatny użytkownik. Zbiór danych można następnie wykorzystać do dalszego udoskonalenia modelu wnioskowania. W rezultacie model wnioskowania jest w stanie znacznie zmniejszyć entropię, a czasem nawet doskonale, słowo w słowo, przewidzieć odpowiedź R z T.
To jakby próbować rozwiązać zagadkę w Kole Fortuny, ale zamiast krótkiego wyrażenia jest to cały akapit fraz i żadna z postaci nie została ujawniona. Jednakże sztuczna inteligencja (LLM) bardzo dobrze potrafi analizować długoterminowe wzorce i potrafi rozwiązywać te zagadki z niezwykłą dokładnością, biorąc pod uwagę wystarczającą liczbę przykładów z innych gier.
Obecnie każdy może czytać prywatne czaty wysyłane z ChatGPT i innych usług. Obejmuje to złośliwych aktorów w tej samej sieci Wi-Fi lub LAN, co klient (np. w tej samej kawiarni), a nawet złośliwych aktorów w Internecie — każdego, kto może obserwować ruch. Atak jest pasywny i może nastąpić bez wiedzy OpenAI lub klienta. OpenAI szyfruje swój ruch, aby zapobiec tego rodzaju atakom polegającym na podsłuchiwaniu, ale nasze badania pokazują, że sposób, w jaki OpenAI wykorzystuje szyfrowanie, jest wadliwy, przez co treść wiadomości zostaje ujawniona.
Dodaj komentarz