VASA-1 pourrait devenir le principal générateur de deepfakes qui feront ou détruiront les élections
VASA-1 de Microsoft est un nouvel outil qui vous permet de créer des deepfakes avec juste une photo et un clip audio. Après tout, les malfaiteurs peuvent l’utiliser de différentes manières. Heureusement, pour le moment, le framework n’est pas accessible car les développeurs sont encore en train de le rechercher.
Selon Microsoft , les pirates russes et chinois utilisent des outils similaires à VASA-1 pour générer des vidéos deepfake complexes. Par leur intermédiaire, ils diffusent des informations erronées sur les problèmes sociopolitiques existants afin d’influencer les élections américaines. Par exemple, l’une de leurs méthodes consiste à créer une fausse vidéo d’un homme politique moins connu parlant de sujets urgents. De plus, ils utilisent les appels téléphoniques générés avec l’IA pour le rendre plus crédible.
Que peuvent faire les acteurs malveillants avec VASA-1 et des outils similaires ?
Les acteurs malveillants pourraient également utiliser VASA-1 et des outils comme Sora AI pour créer des deepfakes mettant en scène des célébrités ou des personnes publiques. En conséquence, les cybercriminels pourraient nuire à la réputation des VIP ou utiliser leur identité pour nous arnaquer. De plus, il est possible d’utiliser des applications de génération de vidéos pour promouvoir de fausses campagnes publicitaires.
Il est possible d’utiliser VASA-1 pour créer des deepfakes d’experts. Par exemple, il y a quelque temps, une agence de publicité a généré une vidéo de Dana Brems , podologue, pour promouvoir de fausses pratiques et de faux produits, tels que des pilules amaigrissantes. De plus, la plupart des acteurs menaçants qui commettent ce type de fraude viennent de Chine.
Même si les deepfakes générés avec VASA-1 sont complexes, vous n’avez pas besoin de connaissances avancées pour les utiliser. Après tout, il possède une interface utilisateur simple. Ainsi, n’importe qui peut l’utiliser pour générer et diffuser des vidéos qualitatives. En plus de cela, tout ce dont vous avez besoin est un générateur de voix IA et un message vocal. Ainsi, d’autres pourraient l’utiliser pour créer de fausses preuves judiciaires et d’autres types de contenu malveillant. Ci-dessous vous pouvez trouver le post de @rowancheung le présentant.
Existe-t-il des moyens d’empêcher les deepfakes VASA-1 ?
VASA-1 montre à quel point l’IA s’est développée en quelques années, et même si cela semble un peu menaçant, les responsables ont mis en place de nouvelles règles. Par exemple, nous avons l’EU AI ACT, le premier règlement sur l’intelligence artificielle, qui interdit les modèles menaçants. De plus, Microsoft nous assure que VASA-1 ne sera pas disponible de si tôt. Cependant, il a dépassé sa formation et a intégré de nouvelles fonctionnalités.
Malheureusement, l’existence de VASA-1 montre qu’il est possible de créer un outil génératif d’IA capable de créer des deepfakes. Ainsi, les auteurs de menaces expérimentés pourraient créer leur propre version malveillante.
En fin de compte, nous ne pourrons pas créer de deepfakes avec VASA-1 trop tôt. Cependant, cette technologie a le potentiel de devenir une véritable menace pour la sécurité. Ainsi, Microsoft et d’autres sociétés doivent être prudents lorsqu’ils le testent pour éviter de laisser des vulnérabilités. Après tout, personne ne veut d’un autre incident d’IA.
Quelles sont vos pensées? Avez-vous peur que quelqu’un puisse utiliser un générateur de deepfake contre vous ? Faites le nous savoir dans les commentaires.
Microsoft vient de présenter VASA-1. Il s’agit d’un nouveau modèle d’IA capable de transformer 1 photo et 1 morceau audio en un deepfake humain pleinement réaliste. Il serait sauvage de laisser tomber cela juste avant les élections 😬 pic.twitter.com/MuLkZVOKRM
– Rowan Cheung (@rowancheung) 18 avril 2024
Laisser un commentaire