Estudo encontra exploits no ChatGPT, hackers podem ler todas as suas conversas
Se você compartilhar assuntos pessoais com o ChatGPT ou fizer perguntas onde informações privadas são divulgadas, pare com isso imediatamente. Um estudo recente sugere que chatbots, incluindo ChatGPT, podem ser hackeados e todas as suas conversas/chats podem estar acessíveis a invasores!
No estudo realizado na Universidade Ben-Gurion de Israel, os pesquisadores descobriram uma exploração de canal lateral presente em quase todos os chatbots populares baseados em IA, exceto o Google Gemini, que poderia revelar toda a conversa com alta precisão, embora não 100%.
Em um e-mail para Ars Technica , Yisroel Mirsky, chefe do Laboratório de Pesquisa de IA Ofensiva da Universidade Ben-Gurion, disse:
Pesquisadores lançam luz sobre as vulnerabilidades em chatbots baseados em IA
O estudo é complexo e um pouco complicado para um usuário comum compreender. Em termos simples, os pesquisadores exploraram a vulnerabilidade do canal lateral para adquirir tokens (dados que ajudam os LLMs a traduzir as entradas do usuário) e depois os usaram para inferir a conversa com uma precisão de 55%.
Os pesquisadores aproveitaram a técnica de ataque de canal lateral porque, com ela, em vez de atacar diretamente o sistema, poderiam coletar as informações que ele compartilhava inadvertidamente. Dessa forma, eles poderiam contornar os protocolos de proteção integrados, incluindo a criptografia.
Esses tokens foram então executados por meio de dois LLMs (Large Language Models) especialmente treinados, que poderiam traduzir o conteúdo em formato de texto. Isto é praticamente impossível se você adotar uma abordagem manual.
No entanto, como os chatbots têm um estilo distinto, os pesquisadores foram capazes de treinar LLMs para decifrar efetivamente os prompts. Um LLM foi treinado para identificar a primeira frase da resposta, enquanto o outro trabalhou em frases internas com base no contexto.
No e-mail para Ars Technica, eles explicam como,
Esse avanço também é mencionado em seu artigo de pesquisa.
Os pesquisadores compartilharam um vídeo de demonstração de todo o processo, desde a interceptação de tráfego até a inferência de resposta, no YouTube .
Portanto, seu bate-papo ChatGPT não é tão seguro quanto você pensava e os hackers podem lê-lo facilmente! Mesmo que a exploração do canal lateral não estivesse presente no chatbot do Google, os pesquisadores já invadiram o Gemini AI e o Cloud Console anteriormente.
Além disso, houve um aumento significativo nos ataques cibernéticos depois que a IA se tornou popular. Um relatório recente da Microsoft sugere que, no Reino Unido, 87% das empresas correm o risco de enfrentar ataques cibernéticos alimentados por IA .
O presidente da Microsoft, Brad Smith, teve a sua quota-parte de preocupações em relação à IA e apelou a regulamentações imediatas!
O que você acha sobre a ascensão da IA? Compartilhe com nossos leitores na seção de comentários.
Observamos que os LLMs usados em serviços de assistente de IA exibem estilos de escrita distintos e, às vezes, repetem frases de seus dados de treinamento, uma noção também compartilhada por outros pesquisadores. O reconhecimento dessa característica nos permite conduzir um ataque semelhante a um ataque de texto simples conhecido. O método envolve a compilação de um conjunto de dados de respostas do LLM alvo usando conjuntos de dados públicos ou por meio do envio de prompts como um usuário pago. O conjunto de dados pode então ser usado para ajustar ainda mais o modelo de inferência. Como resultado, o modelo de inferência é capaz de reduzir significativamente a entropia e, às vezes, até prever perfeitamente a resposta R de T, palavra por palavra.
É como tentar resolver um quebra-cabeça na Roda da Fortuna, mas em vez de ser uma frase curta, é um parágrafo inteiro de frases e nenhum dos personagens foi revelado. No entanto, a IA (LLMs) é muito boa em observar padrões de longo prazo e pode resolver esses quebra-cabeças com precisão notável, dados exemplos suficientes de outros jogos.
Atualmente, qualquer pessoa pode ler chats privados enviados do ChatGPT e de outros serviços. Isso inclui agentes mal-intencionados na mesma rede Wi-Fi ou LAN que um cliente (por exemplo, na mesma cafeteria) ou até mesmo um agente mal-intencionado na Internet – qualquer pessoa que possa observar o tráfego. O ataque é passivo e pode acontecer sem o conhecimento da OpenAI ou do cliente. A OpenAI criptografa seu tráfego para evitar esses tipos de ataques de espionagem, mas nossa pesquisa mostra que a maneira como a OpenAI usa a criptografia é falha e, portanto, o conteúdo das mensagens é exposto.
Deixe um comentário