VASA-1 podría convertirse en el principal generador de deepfakes que marcarán el éxito o el fracaso de las elecciones
VASA-1 de Microsoft es una nueva herramienta que permite crear deepfakes con solo una foto y un clip de audio. Después de todo, los malhechores pueden utilizarlo de varias maneras. Afortunadamente, por el momento no se puede acceder al marco porque los desarrolladores todavía están investigándolo.
Según Microsoft , los piratas informáticos rusos y chinos utilizan herramientas similares a VASA-1 para generar vídeos deepfake complejos. A través de ellos, difunden información errónea sobre los problemas sociopolíticos existentes para influir en las elecciones estadounidenses. Por ejemplo, uno de sus métodos es crear un vídeo falso de un político menos conocido hablando de asuntos urgentes. Además, utilizan llamadas telefónicas generadas con IA para hacerlo más creíble.
¿Qué pueden hacer los actores de amenazas con VASA-1 y herramientas similares?
Los actores de amenazas también podrían usar VASA-1 y herramientas como Sora AI para crear deepfakes con celebridades o personas públicas. Como resultado, los ciberdelincuentes podrían dañar la reputación de los VIP o utilizar su identidad para estafarnos. Además, es posible utilizar aplicaciones generadoras de vídeos para promover campañas publicitarias falsas.
Es posible utilizar VASA-1 para crear deepfakes de expertos. Por ejemplo, hace un tiempo, una empresa de publicidad generó un vídeo de Dana Brems , podóloga, para promocionar prácticas y productos falsos, como pastillas para bajar de peso. Además, la mayoría de los actores de amenazas que realizan este tipo de fraude son de China.
Incluso si los deepfakes generados con VASA-1 son complejos, no necesitas conocimientos avanzados para utilizarlos. Después de todo, tiene una interfaz de usuario sencilla. Por lo tanto, cualquiera podría usarlo para generar y transmitir videos cualitativos. Además de eso, todo lo que los demás necesitan es un generador de voz con IA y un mensaje de voz. Por lo tanto, otros podrían usarlo para crear pruebas judiciales falsas y otros tipos de contenido malicioso. A continuación puede encontrar la publicación de @rowancheung que lo muestra.
¿Existe alguna forma de prevenir los deepfakes de VASA-1?
VASA-1 muestra cuánto creció la IA en unos pocos años y, aunque parece un poco amenazador, los funcionarios pusieron en marcha nuevas reglas. Por ejemplo, tenemos la EU AI ACT, el primer reglamento sobre Inteligencia Artificial, que prohíbe los modelos amenazantes. Además, Microsoft nos asegura que VASA-1 no estará disponible demasiado pronto. Sin embargo, superó su formación y acomodó novedades.
Desafortunadamente, la existencia de VASA-1 muestra que es posible crear una herramienta generativa de IA capaz de crear deepfakes. Por lo tanto, los actores de amenazas experimentados podrían crear su propia versión maliciosa.
En última instancia, no podremos crear deepfakes con VASA-1 demasiado pronto. Sin embargo, esta tecnología tiene el potencial de convertirse en una verdadera amenaza para la seguridad. Por lo que Microsoft y otras empresas deben tener cuidado al probarlo para no dejar vulnerabilidades. Después de todo, nadie quiere otro incidente con la IA.
¿Cuáles son tus pensamientos? ¿Tienes miedo de que alguien pueda utilizar un generador de deepfake en tu contra? Háganos saber en los comentarios.
Microsoft acaba de presentar VASA-1. Es un nuevo modelo de IA que puede convertir 1 foto y 1 pieza de audio en un deepfake humano completamente realista. Es una locura dejar esto justo antes de las elecciones 😬 pic.twitter.com/MuLkZVOKRM
– Rowan Cheung (@rowancheung) 18 de abril de 2024
Deja una respuesta