VASA-1 könnte zum Hauptgenerator für Deepfakes werden, die über Wahlen entscheiden
Microsofts VASA-1 ist ein neues Tool, mit dem man Deepfakes nur mit einem Foto und einem Audioclip erstellen kann. Schließlich können Übeltäter es auf verschiedene Weise nutzen. Zum Glück ist das Framework derzeit nicht zugänglich, da die Entwickler noch daran forschen.
Laut Microsoft verwenden russische und chinesische Hacker ähnliche Tools wie VASA-1, um komplexe Deepfake-Videos zu erstellen. Mit ihnen verbreiten sie Fehlinformationen über bestehende gesellschaftspolitische Probleme, um die US-Wahlen zu beeinflussen. Eine ihrer Methoden besteht beispielsweise darin, ein gefälschtes Video eines weniger bekannten Politikers zu erstellen, der über dringende Angelegenheiten spricht. Darüber hinaus verwenden sie mit KI generierte Telefonanrufe, um das Video glaubwürdiger zu machen.
Was können Bedrohungsakteure mit VASA-1 und ähnlichen Tools tun?
Bedrohungsakteure könnten VASA-1 und Tools wie Sora AI auch verwenden, um Deepfakes mit Prominenten oder Persönlichkeiten des öffentlichen Lebens zu erstellen. Dadurch könnten Cyberkriminelle den Ruf der VIPs schädigen oder ihre Identität nutzen, um uns zu betrügen. Darüber hinaus ist es möglich, Apps zur Videogenerierung zu verwenden, um gefälschte Werbekampagnen zu fördern.
Mit VASA-1 ist es möglich, Deepfakes von Experten zu erstellen. So erstellte beispielsweise vor einiger Zeit eine Werbefirma ein Video von Dana Brems , einer Fußpflegerin, um für gefälschte Praktiken und Produkte wie etwa Abnehmpillen zu werben. Zudem kommen die meisten Bedrohungsakteure, die diese Art von Betrug begehen, aus China.
Auch wenn die mit VASA-1 generierten Deepfakes komplex sind, braucht man keine fortgeschrittenen Kenntnisse, um es zu verwenden. Schließlich hat es eine einfache Benutzeroberfläche. Jeder kann es also verwenden, um qualitativ hochwertige Videos zu erstellen und zu streamen. Darüber hinaus benötigen andere lediglich einen KI-Stimmgenerator und eine Sprachnachricht. Andere könnten es also verwenden, um gefälschte Gerichtsbeweise und andere Arten bösartiger Inhalte zu erstellen. Unten finden Sie den Beitrag von @rowancheung , der es vorstellt.
Gibt es Möglichkeiten, VASA-1-Deepfakes zu verhindern?
VASA-1 zeigt, wie stark sich die KI in wenigen Jahren entwickelt hat, und obwohl es ein wenig bedrohlich wirkt, haben die Behörden neue Regeln in Gang gesetzt. So haben wir beispielsweise den EU AI ACT, die erste Verordnung für künstliche Intelligenz, die bedrohliche Modelle verbietet. Darüber hinaus versichert uns Microsoft, dass VASA-1 nicht zu bald verfügbar sein wird. Es hat jedoch seine Ausbildung übertroffen und neue Funktionen integriert.
Leider zeigt die Existenz von VASA-1, dass es möglich ist, ein KI-generierendes Tool zu entwickeln, das Deepfakes erstellen kann. Erfahrene Bedrohungsakteure könnten also ihre eigene bösartige Version erstellen.
Letztendlich werden wir mit VASA-1 nicht so schnell Deepfakes erstellen können. Allerdings hat diese Technologie das Potenzial, zu einer echten Sicherheitsbedrohung zu werden. Daher sollten Microsoft und andere Unternehmen beim Testen vorsichtig sein, um Schwachstellen zu vermeiden. Schließlich will niemand einen weiteren KI-Vorfall.
Was denkst du darüber? Hast du Angst, dass jemand einen Deepfake-Generator gegen dich einsetzen könnte? Lass es uns in den Kommentaren wissen.
Microsoft hat gerade VASA-1 vorgestellt. Dabei handelt es sich um ein neues KI-Modell, das aus einem Foto und einem Audio-Element einen vollkommen lebensechten menschlichen Deepfake machen kann. Es ist verrückt, das so kurz vor der Wahl rauszuhauen 😬 pic.twitter.com/MuLkZVOKRM
– Rowan Cheung (@rowancheung), 18. April 2024
Schreibe einen Kommentar