VASA-1 pode se tornar o principal gerador de deepfakes que farão ou destruirão eleições

VASA-1 pode se tornar o principal gerador de deepfakes que farão ou destruirão eleições

O VASA-1 da Microsoft é uma nova ferramenta que permite criar deepfakes com apenas uma foto e um clipe de áudio. Afinal, os malfeitores podem usá-lo de diversas maneiras. Felizmente, no momento, o framework não está acessível porque os desenvolvedores ainda estão pesquisando sobre ele.

Segundo a Microsoft , hackers russos e chineses usam ferramentas semelhantes ao VASA-1 para gerar vídeos deepfake complexos. Através deles, espalham desinformação sobre os problemas sociopolíticos existentes para influenciar as eleições nos EUA. Por exemplo, um dos seus métodos é criar um vídeo falso de um político menos conhecido falando sobre assuntos urgentes. Além disso, eles usam chamadas telefônicas geradas com IA para torná-las mais confiáveis.

O que os agentes de ameaças podem fazer com o VASA-1 e ferramentas semelhantes?

Os atores da ameaça também poderiam usar o VASA-1 e ferramentas como Sora AI para criar deepfakes apresentando celebridades ou pessoas públicas. Como resultado, os cibercriminosos podem prejudicar a reputação dos VIPs ou usar a sua identidade para nos enganar. Além disso, é possível usar aplicativos geradores de vídeo para promover campanhas publicitárias falsas.

É possível usar o VASA-1 para criar deepfakes de especialistas. Por exemplo, há algum tempo, uma empresa de publicidade gerou um vídeo de Dana Brems , uma podóloga, para promover práticas e produtos falsos, como pílulas para perder peso. Além disso, a maioria dos atores de ameaças que praticam esse tipo de fraude são da China.

Mesmo que os deepfakes gerados com VASA-1 sejam complexos, você não precisa de conhecimento avançado para usá-los. Afinal, possui uma UI simples. Assim, qualquer pessoa poderia usá-lo para gerar e transmitir vídeos qualitativos. Além disso, todos os outros precisam é de um gerador de voz de IA e de uma mensagem de voz. Assim, outros podem usá-lo para criar provas judiciais falsas e outros tipos de conteúdo malicioso. Abaixo você encontra o post de @rowancheung mostrando isso.

Existe alguma maneira de prevenir deepfakes VASA-1?

VASA-1 mostra o quanto a IA cresceu em alguns anos e, embora pareça um pouco ameaçador, as autoridades estabeleceram novas regras. Por exemplo, temos o EU AI ACT, o primeiro regulamento de Inteligência Artificial, que proíbe modelos ameaçadores. Além disso, a Microsoft garante que o VASA-1 não estará disponível tão cedo. Porém, superou seu treinamento e acomodou novos recursos.

Infelizmente, a existência do VASA-1 mostra que é possível criar uma ferramenta geradora de IA capaz de criar deepfakes. Assim, agentes de ameaças experientes poderiam criar sua própria versão maliciosa.

Em última análise, não seremos capazes de criar deepfakes com o VASA-1 tão cedo. No entanto, esta tecnologia tem potencial para se tornar uma ameaça real à segurança. Portanto, a Microsoft e outras empresas devem ter cuidado ao testá-lo para evitar deixar vulnerabilidades. Afinal, ninguém quer outro incidente de IA.

Quais são seus pensamentos? Você tem medo de que alguém possa usar um gerador deepfake contra você? Deixe-nos saber nos comentários.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *