Uno studio trova exploit in ChatGPT, gli hacker possono leggere tutte le tue conversazioni
Se condividi questioni personali con ChatGPT o fai domande in cui vengono divulgate informazioni private, interrompilo immediatamente. Uno studio recente suggerisce che i chatbot, incluso ChatGPT, potrebbero essere violati e tutte le tue conversazioni/chat potrebbero essere accessibili agli aggressori!
Nello studio condotto presso l’Università israeliana Ben-Gurion, i ricercatori hanno scoperto un exploit del canale laterale presente in quasi tutti i popolari chatbot basati sull’intelligenza artificiale, ad eccezione di Google Gemini, che potrebbe rivelare l’intera conversazione con elevata precisione, anche se non al 100%.
In una e-mail ad Ars Technica , Yisroel Mirsky, capo dell’Offensive AI Research Lab presso l’Università Ben-Gurion, ha dichiarato:
I ricercatori fanno luce sulle vulnerabilità dei chatbot basati sull’intelligenza artificiale
Lo studio è complesso e leggermente difficile da comprendere per un utente normale. In termini semplici, i ricercatori hanno sfruttato la vulnerabilità del canale laterale per acquisire token (dati che aiutano gli LLM a tradurre gli input degli utenti) e poi li hanno utilizzati per dedurre la conversazione con una precisione del 55%.
I ricercatori hanno sfruttato la tecnica di attacco del canale laterale perché, invece di attaccare direttamente il sistema, potevano raccogliere le informazioni condivise inavvertitamente. In questo modo, potrebbero aggirare i protocolli di protezione integrati, inclusa la crittografia.
Questi token sono stati poi eseguiti attraverso due LLM (Large Language Models) appositamente addestrati, che potevano tradurre i contenuti in formato testo. Questo è praticamente impossibile se si adotta un approccio manuale.
Tuttavia, poiché i chatbot hanno uno stile distinto, i ricercatori sono stati in grado di addestrare gli LLM a decifrare efficacemente i suggerimenti. Un LLM è stato addestrato a identificare la prima frase della risposta, mentre l’altro ha lavorato su frasi interne in base al contesto.
Nell’e-mail ad Ars Technica, lo spiegano come,
Questa svolta è menzionata anche nel loro documento di ricerca.
I ricercatori hanno condiviso su YouTube un video dimostrativo dell’intero processo, dall’intercettazione del traffico all’inferenza della risposta .
Quindi, la tua chat ChatGPT non è così sicura come pensavi e gli hacker potrebbero facilmente leggerla! Anche se l’exploit del canale laterale non era presente nel chatbot di Google, i ricercatori hanno precedentemente violato Gemini AI e Cloud Console .
Inoltre, si è verificato un aumento significativo degli attacchi informatici dopo che l’intelligenza artificiale è diventata mainstream. Un recente rapporto di Microsoft suggerisce che nel Regno Unito, l’87% delle aziende corre il rischio di affrontare attacchi informatici basati sull’intelligenza artificiale .
Il presidente di Microsoft, Brad Smith, aveva la sua parte di preoccupazioni riguardo all’intelligenza artificiale e ha chiesto una regolamentazione immediata!
Cosa ne pensi dell’ascesa dell’intelligenza artificiale? Condividi con i nostri lettori nella sezione commenti.
Abbiamo osservato che gli LLM utilizzati nei servizi di assistente AI mostrano stili di scrittura distinti e talvolta ripetono frasi dai loro dati di addestramento, un concetto ripreso anche da altri ricercatori. Riconoscere questa caratteristica ci consente di condurre un attacco simile a un attacco con testo in chiaro noto. Il metodo prevede la compilazione di un set di dati di risposte dal LLM di destinazione utilizzando set di dati pubblici o tramite l’invio di richieste come utente a pagamento. Il set di dati può quindi essere utilizzato per ottimizzare ulteriormente il modello di inferenza. Di conseguenza, il modello di inferenza è in grado di ridurre significativamente l’entropia e talvolta persino di prevedere perfettamente la risposta R da T, parola per parola.
È come cercare di risolvere un enigma sulla Ruota della fortuna, ma invece di essere una breve frase, è un intero paragrafo di frasi e nessuno dei personaggi è stato rivelato. Tuttavia, l’intelligenza artificiale (LLM) è molto brava a osservare i modelli a lungo termine e può risolvere questi enigmi con notevole precisione, dati sufficienti esempi da altri giochi.
Attualmente chiunque può leggere le chat private inviate da ChatGPT e altri servizi. Ciò include soggetti malintenzionati sulla stessa rete Wi-Fi o LAN di un client (ad esempio, lo stesso bar) o anche un soggetto malintenzionato su Internet, ovvero chiunque possa osservare il traffico. L’attacco è passivo e può avvenire all’insaputa di OpenAI o del cliente. OpenAI crittografa il loro traffico per prevenire questo tipo di attacchi di intercettazione, ma la nostra ricerca mostra che il modo in cui OpenAI utilizza la crittografia è difettoso e quindi il contenuto dei messaggi viene esposto.
Lascia un commento