VASA-1 zou de belangrijkste generator kunnen worden voor deepfakes die verkiezingen kunnen maken of breken
VASA-1 van Microsoft is een nieuwe tool waarmee je deepfakes kunt maken met alleen een foto en een audiofragment. Overtreders kunnen er immers op verschillende manieren gebruik van maken. Gelukkig is het raamwerk momenteel niet toegankelijk omdat ontwikkelaars er nog onderzoek naar doen.
Volgens Microsoft gebruiken Russische en Chinese hackers vergelijkbare tools als VASA-1 om complexe deepfake-video’s te genereren. Via hen verspreiden ze verkeerde informatie over bestaande sociaal-politieke problemen om de Amerikaanse verkiezingen te beïnvloeden. Eén van hun methoden is bijvoorbeeld het maken van een nepvideo waarin een minder bekende politicus over urgente zaken praat. Daarnaast gebruiken ze met AI gegenereerde telefoontjes om het geloofwaardiger te maken.
Wat kunnen bedreigingsactoren doen met VASA-1 en vergelijkbare tools?
Bedreigingsactoren zouden ook VASA-1 en tools zoals Sora AI kunnen gebruiken om deepfakes te creëren met beroemdheden of publieke mensen. Als gevolg hiervan kunnen cybercriminelen de reputatie van de VIP’s schaden of hun identiteit gebruiken om ons op te lichten. Daarnaast is het mogelijk om videogenererende apps te gebruiken om nepreclamecampagnes te promoten.
Het is mogelijk om VASA-1 te gebruiken om deepfakes van experts te creëren. Een tijdje geleden heeft een reclamebedrijf bijvoorbeeld een video gemaakt van Dana Brems , een podotherapeut, om neppraktijken en -producten, zoals afslankpillen, te promoten. Bovendien komen de meeste bedreigingsactoren die dit soort fraude plegen uit China.
Zelfs als de deepfakes die met VASA-1 worden gegenereerd complex zijn, heb je geen geavanceerde kennis nodig om deze te gebruiken. Het heeft tenslotte een eenvoudige gebruikersinterface. Iedereen zou het dus kunnen gebruiken om kwalitatieve video’s te genereren en te stomen. Daarnaast hebben de anderen alleen een AI-stemgenerator en een gesproken bericht nodig. Anderen kunnen het dus gebruiken om neprechtelijk bewijsmateriaal en andere soorten kwaadaardige inhoud te creëren. Hieronder vind je het bericht van @rowancheung waarin het wordt gepresenteerd.
Zijn er manieren om VASA-1 deepfakes te voorkomen?
VASA-1 laat zien hoeveel AI in een paar jaar tijd is gegroeid, en hoewel het een beetje bedreigend aanvoelt, hebben ambtenaren nieuwe regels in gang gezet. We hebben bijvoorbeeld de EU AI ACT, de eerste verordening op het gebied van kunstmatige intelligentie, die bedreigende modellen verbiedt. Bovendien verzekert Microsoft ons dat VASA-1 niet te snel beschikbaar zal zijn. Het overtrof echter zijn training en bood plaats aan nieuwe functies.
Helaas laat het bestaan van VASA-1 zien dat het mogelijk is om een generatieve AI-tool te creëren die deepfakes kan creëren. Ervaren bedreigingsactoren kunnen dus hun eigen kwaadaardige versie maken.
Uiteindelijk zullen we niet te snel deepfakes met VASA-1 kunnen creëren. Deze technologie heeft echter het potentieel om een reële bedreiging voor de veiligheid te worden. Microsoft en andere bedrijven moeten dus voorzichtig zijn bij het testen ervan om te voorkomen dat er kwetsbaarheden achterblijven. Niemand wil immers nog een AI-incident.
Wat zijn uw gedachten? Ben je bang dat iemand een deepfake-generator tegen je kan gebruiken? Laat het ons weten in de reacties.
Microsoft heeft zojuist VASA-1 geïntroduceerd. Het is een nieuw AI-model dat 1 foto en 1 stuk audio kan omzetten in een volledig levensechte menselijke deepfake. Ik zou dit graag vlak voor de verkiezingen willen laten vallen 😬 pic.twitter.com/MuLkZVOKRM
— Rowan Cheung (@rowancheung) 18 april 2024
Geef een reactie