Onderzoek vindt exploits in ChatGPT, hackers kunnen al je gesprekken lezen

Onderzoek vindt exploits in ChatGPT, hackers kunnen al je gesprekken lezen

Als u persoonlijke zaken deelt met ChatGPT of vragen stelt waarbij privé-informatie openbaar wordt gemaakt, stop daar dan onmiddellijk mee. Een recent onderzoek suggereert dat chatbots, inclusief ChatGPT, kunnen worden gehackt en dat al uw gesprekken/chats toegankelijk kunnen zijn voor aanvallers!

In het onderzoek uitgevoerd aan de Israëlische Ben-Gurion Universiteit hebben onderzoekers een zijkanaalexploit gevonden die aanwezig is in bijna elke populaire AI-gebaseerde chatbot, behalve Google Gemini, die het hele gesprek met hoge nauwkeurigheid, maar niet 100%, zou kunnen onthullen.

In een e-mail aan Ars Technica zei Yisroel Mirsky, hoofd van het Offensive AI Research Lab aan de Ben-Gurion Universiteit:

Onderzoekers werpen licht op de kwetsbaarheden in op AI gebaseerde chatbots

Het onderzoek is complex en enigszins lastig te begrijpen voor een gewone gebruiker. In eenvoudige bewoordingen maakten onderzoekers gebruik van de kwetsbaarheid in het zijkanaal om tokens te verkrijgen (gegevens die LLM’s helpen bij het vertalen van gebruikersinvoer) en gebruikten deze vervolgens om het gesprek af te leiden met een nauwkeurigheid van 55%.

Onderzoekers maakten gebruik van de zijkanaalaanvaltechniek omdat ze daarmee, in plaats van het systeem rechtstreeks aan te vallen, de informatie konden verzamelen die het onbedoeld deelde. Op deze manier konden ze de ingebouwde beveiligingsprotocollen, inclusief encryptie, omzeilen.

Deze tokens werden vervolgens door twee speciaal opgeleide LLM’s (Large Language Models) gehaald, die de inhoud in tekstformaat konden vertalen. Dit is praktisch onmogelijk als u voor een handmatige aanpak kiest.

Omdat chatbots echter een aparte stijl hebben, konden onderzoekers LLM’s trainen om de aanwijzingen effectief te ontcijferen. Eén LLM werd getraind om de eerste zin van het antwoord te identificeren, terwijl de ander aan innerlijke zinnen werkte op basis van de context.

In de e-mail aan Ars Technica leggen ze het uit als:

Deze doorbraak wordt ook genoemd in hun onderzoekspaper.

De onderzoekers hebben een demovideo van het hele proces, van Traffic Interception tot Response Inference, op YouTube gedeeld .

Uw ChatGPT-chat is dus niet zo veilig als u dacht, en hackers kunnen deze gemakkelijk lezen! Hoewel de side-channel-exploit niet aanwezig was in de chatbot van Google, hebben onderzoekers eerder Gemini AI en Cloud Console gehackt .

Bovendien is het aantal cyberaanvallen aanzienlijk toegenomen nadat AI mainstream werd. Uit een recent rapport van Microsoft blijkt dat 87% van de bedrijven in Groot-Brittannië het risico loopt geconfronteerd te worden met AI-aangedreven cyberaanvallen .

De president van Microsoft, Brad Smith, had zijn zorgen over AI en riep op tot onmiddellijke regelgeving!

Wat vind jij van de opkomst van AI? Deel het met onze lezers in de commentarensectie.

We hebben vastgesteld dat LLM’s die worden gebruikt in AI-assistentiediensten verschillende schrijfstijlen vertonen en soms zinnen uit hun trainingsgegevens herhalen, een idee dat ook door andere onderzoekers wordt herhaald. Door dit kenmerk te herkennen, kunnen we een aanval uitvoeren die lijkt op een aanval met bekende platte tekst. De methode omvat het samenstellen van een dataset met antwoorden van de doel-LLM met behulp van openbare datasets of via het verzenden van prompts als betaalde gebruiker. De dataset kan vervolgens worden gebruikt om het inferentiemodel verder te verfijnen. Als gevolg hiervan kan het gevolgtrekkingsmodel de entropie aanzienlijk verminderen en soms zelfs de respons R van T perfect woord voor woord voorspellen.

Het is alsof je een puzzel probeert op te lossen op het Rad van Fortuin, maar in plaats van dat het een korte zin is, is het een hele paragraaf vol zinnen en zijn geen van de personages onthuld. AI (LLM’s) zijn echter erg goed in het kijken naar langetermijnpatronen en kunnen deze puzzels met opmerkelijke nauwkeurigheid oplossen, gegeven voldoende voorbeelden uit andere games.

Momenteel kan iedereen privéchats lezen die zijn verzonden door ChatGPT en andere services. Dit omvat kwaadwillende actoren op hetzelfde Wi-Fi- of LAN-netwerk als een client (bijvoorbeeld dezelfde coffeeshop), of zelfs een kwaadwillende actor op internet: iedereen die het verkeer kan observeren. De aanval is passief en kan plaatsvinden zonder medeweten van OpenAI of hun klant. OpenAI codeert hun verkeer om dit soort afluisteraanvallen te voorkomen, maar ons onderzoek toont aan dat de manier waarop OpenAI encryptie gebruikt gebrekkig is, en dat de inhoud van de berichten dus openbaar wordt gemaakt.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *