Uno studio trova exploit in ChatGPT, gli hacker possono leggere tutte le tue conversazioni

Uno studio trova exploit in ChatGPT, gli hacker possono leggere tutte le tue conversazioni

Se condividi questioni personali con ChatGPT o fai domande in cui vengono divulgate informazioni private, interrompilo immediatamente. Uno studio recente suggerisce che i chatbot, incluso ChatGPT, potrebbero essere violati e tutte le tue conversazioni/chat potrebbero essere accessibili agli aggressori!

Nello studio condotto presso l’Università israeliana Ben-Gurion, i ricercatori hanno scoperto un exploit del canale laterale presente in quasi tutti i popolari chatbot basati sull’intelligenza artificiale, ad eccezione di Google Gemini, che potrebbe rivelare l’intera conversazione con elevata precisione, anche se non al 100%.

In una e-mail ad Ars Technica , Yisroel Mirsky, capo dell’Offensive AI Research Lab presso l’Università Ben-Gurion, ha dichiarato:

I ricercatori fanno luce sulle vulnerabilità dei chatbot basati sull’intelligenza artificiale

Lo studio è complesso e leggermente difficile da comprendere per un utente normale. In termini semplici, i ricercatori hanno sfruttato la vulnerabilità del canale laterale per acquisire token (dati che aiutano gli LLM a tradurre gli input degli utenti) e poi li hanno utilizzati per dedurre la conversazione con una precisione del 55%.

I ricercatori hanno sfruttato la tecnica di attacco del canale laterale perché, invece di attaccare direttamente il sistema, potevano raccogliere le informazioni condivise inavvertitamente. In questo modo, potrebbero aggirare i protocolli di protezione integrati, inclusa la crittografia.

Questi token sono stati poi eseguiti attraverso due LLM (Large Language Models) appositamente addestrati, che potevano tradurre i contenuti in formato testo. Questo è praticamente impossibile se si adotta un approccio manuale.

Tuttavia, poiché i chatbot hanno uno stile distinto, i ricercatori sono stati in grado di addestrare gli LLM a decifrare efficacemente i suggerimenti. Un LLM è stato addestrato a identificare la prima frase della risposta, mentre l’altro ha lavorato su frasi interne in base al contesto.

Nell’e-mail ad Ars Technica, lo spiegano come,

Questa svolta è menzionata anche nel loro documento di ricerca.

I ricercatori hanno condiviso su YouTube un video dimostrativo dell’intero processo, dall’intercettazione del traffico all’inferenza della risposta .

Quindi, la tua chat ChatGPT non è così sicura come pensavi e gli hacker potrebbero facilmente leggerla! Anche se l’exploit del canale laterale non era presente nel chatbot di Google, i ricercatori hanno precedentemente violato Gemini AI e Cloud Console .

Inoltre, si è verificato un aumento significativo degli attacchi informatici dopo che l’intelligenza artificiale è diventata mainstream. Un recente rapporto di Microsoft suggerisce che nel Regno Unito, l’87% delle aziende corre il rischio di affrontare attacchi informatici basati sull’intelligenza artificiale .

Il presidente di Microsoft, Brad Smith, aveva la sua parte di preoccupazioni riguardo all’intelligenza artificiale e ha chiesto una regolamentazione immediata!

Cosa ne pensi dell’ascesa dell’intelligenza artificiale? Condividi con i nostri lettori nella sezione commenti.

Abbiamo osservato che gli LLM utilizzati nei servizi di assistente AI mostrano stili di scrittura distinti e talvolta ripetono frasi dai loro dati di addestramento, un concetto ripreso anche da altri ricercatori. Riconoscere questa caratteristica ci consente di condurre un attacco simile a un attacco con testo in chiaro noto. Il metodo prevede la compilazione di un set di dati di risposte dal LLM di destinazione utilizzando set di dati pubblici o tramite l’invio di richieste come utente a pagamento. Il set di dati può quindi essere utilizzato per ottimizzare ulteriormente il modello di inferenza. Di conseguenza, il modello di inferenza è in grado di ridurre significativamente l’entropia e talvolta persino di prevedere perfettamente la risposta R da T, parola per parola.

È come cercare di risolvere un enigma sulla Ruota della fortuna, ma invece di essere una breve frase, è un intero paragrafo di frasi e nessuno dei personaggi è stato rivelato. Tuttavia, l’intelligenza artificiale (LLM) è molto brava a osservare i modelli a lungo termine e può risolvere questi enigmi con notevole precisione, dati sufficienti esempi da altri giochi.

Attualmente chiunque può leggere le chat private inviate da ChatGPT e altri servizi. Ciò include soggetti malintenzionati sulla stessa rete Wi-Fi o LAN di un client (ad esempio, lo stesso bar) o anche un soggetto malintenzionato su Internet, ovvero chiunque possa osservare il traffico. L’attacco è passivo e può avvenire all’insaputa di OpenAI o del cliente. OpenAI crittografa il loro traffico per prevenire questo tipo di attacchi di intercettazione, ma la nostra ricerca mostra che il modo in cui OpenAI utilizza la crittografia è difettoso e quindi il contenuto dei messaggi viene esposto.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *