Un estudio encuentra exploits en ChatGPT, los piratas informáticos pueden leer todas sus conversaciones
Si comparte asuntos personales con ChatGPT o hace preguntas donde se divulga información privada, deje de hacerlo de inmediato. Un estudio reciente sugiere que los chatbots, incluido ChatGPT, podrían ser pirateados y que todas sus conversaciones/chats podrían ser accesibles para los atacantes.
En el estudio realizado en la Universidad Ben-Gurion de Israel, los investigadores encontraron un exploit de canal secundario presente en casi todos los chatbots populares basados en IA, excepto Google Gemini, que podría revelar toda la conversación con alta precisión, aunque no al 100%.
En un correo electrónico a Ars Technica , Yisroel Mirsky, jefe del Laboratorio de Investigación de IA Ofensiva de la Universidad Ben-Gurion, dijo:
Los investigadores arrojan luz sobre las vulnerabilidades de los chatbots basados en IA
El estudio es complejo y un poco complicado de comprender para un usuario habitual. En términos simples, los investigadores explotaron la vulnerabilidad del canal lateral para adquirir tokens (datos que ayudan a los LLM a traducir las entradas de los usuarios) y luego los usaron para inferir la conversación con una precisión del 55%.
Los investigadores aprovecharon la técnica de ataque de canal lateral porque, con ella, en lugar de atacar directamente el sistema, podían recopilar la información que compartía sin darse cuenta. De esta manera, podrían eludir los protocolos de protección integrados, incluido el cifrado.
Luego, estos tokens se ejecutaron a través de dos LLM (modelos de lenguaje grande) especialmente capacitados, que podían traducir los contenidos a formato de texto. Esto es prácticamente imposible si se realiza de forma manual.
Sin embargo, dado que los chatbots tienen un estilo distinto, los investigadores pudieron capacitar a los LLM para descifrar eficazmente las indicaciones. Un LLM fue capacitado para identificar la primera oración de la respuesta, mientras que el otro trabajó en oraciones internas según el contexto.
En el correo electrónico a Ars Technica, lo explican como,
Este avance también se menciona en su artículo de investigación.
Los investigadores han compartido en YouTube un vídeo de demostración de todo el proceso, desde la intercepción del tráfico hasta la inferencia de respuesta .
Por lo tanto, tu chat ChatGPT no es tan seguro como pensabas y los piratas informáticos pueden leerlo fácilmente. Aunque el exploit del canal lateral no estaba presente en el chatbot de Google, los investigadores han pirateado Gemini AI y Cloud Console anteriormente.
Además, ha habido un aumento significativo de los ciberataques después de que la IA se generalizara. Un informe reciente de Microsoft sugiere que en el Reino Unido, el 87% de las empresas corren el riesgo de sufrir ciberataques impulsados por IA .
El presidente de Microsoft, Brad Smith, tenía sus preocupaciones con respecto a la IA y pidió regulaciones inmediatas.
¿Qué opinas sobre el auge de la IA? Compártelo con nuestros lectores en la sección de comentarios.
Observamos que los LLM utilizados en servicios de asistente de IA exhiben distintos estilos de escritura y, a veces, repiten frases de sus datos de entrenamiento, una noción de la que también se hacen eco otros investigadores. Reconocer esta característica nos permite realizar un ataque similar a un ataque de texto sin formato conocido. El método implica compilar un conjunto de datos de respuestas del LLM objetivo utilizando conjuntos de datos públicos o enviando mensajes como usuario pago. Luego, el conjunto de datos se puede utilizar para perfeccionar aún más el modelo de inferencia. Como resultado, el modelo de inferencia es capaz de reducir significativamente la entropía y, a veces, incluso predecir perfectamente la respuesta R de T, palabra por palabra.
Es como intentar resolver un rompecabezas en Wheel of Fortune, pero en lugar de ser una frase corta, es un párrafo completo de frases y ninguno de los personajes ha sido revelado. Sin embargo, la IA (LLM) es muy buena para observar patrones a largo plazo y puede resolver estos acertijos con una precisión notable si se le dan suficientes ejemplos de otros juegos.
Actualmente, cualquiera puede leer chats privados enviados desde ChatGPT y otros servicios. Esto incluye actores maliciosos en la misma red Wi-Fi o LAN que un cliente (por ejemplo, en la misma cafetería), o incluso un actor malicioso en Internet: cualquiera que pueda observar el tráfico. El ataque es pasivo y puede ocurrir sin el conocimiento de OpenAI o de su cliente. OpenAI cifra su tráfico para evitar este tipo de ataques de escucha, pero nuestra investigación muestra que la forma en que OpenAI utiliza el cifrado es defectuosa y, por lo tanto, el contenido de los mensajes queda expuesto.
Deja una respuesta