VASA-1 potrebbe diventare il principale generatore di deepfake che determineranno o distruggeranno le elezioni
VASA-1 di Microsoft è un nuovo strumento che ti consente di creare deepfake semplicemente con una foto e una clip audio. Dopotutto, i trasgressori possono usarlo in vari modi. Fortunatamente, al momento, il framework non è accessibile perché gli sviluppatori lo stanno ancora ricercando.
Secondo Microsoft , gli hacker russi e cinesi utilizzano strumenti simili a VASA-1 per generare complessi video deepfake. Attraverso di loro, diffondono disinformazione sui problemi socio-politici esistenti per influenzare le elezioni statunitensi. Ad esempio, uno dei loro metodi è creare un video falso in cui un politico meno conosciuto parla di questioni urgenti. Inoltre, utilizzano le telefonate generate con l’intelligenza artificiale per renderlo più credibile.
Cosa possono fare gli autori delle minacce con VASA-1 e strumenti simili?
Gli autori delle minacce potrebbero anche utilizzare VASA-1 e strumenti come Sora AI per creare deepfake con celebrità o persone pubbliche. Di conseguenza, i criminali informatici potrebbero danneggiare la reputazione dei VIP o utilizzare la loro identità per truffarci. Inoltre, è possibile utilizzare app per la generazione di video per promuovere campagne pubblicitarie false.
È possibile utilizzare VASA-1 per creare deepfake di esperti. Ad esempio, qualche tempo fa, una società pubblicitaria ha generato un video di Dana Brems , una podologo, per promuovere pratiche e prodotti contraffatti, come le pillole dimagranti. Inoltre, la maggior parte degli autori di minacce che commettono questo tipo di frode provengono dalla Cina.
Anche se i deepfake generati con VASA-1 sono complessi, non sono necessarie conoscenze avanzate per utilizzarlo. Dopotutto, ha un’interfaccia utente semplice. Quindi, chiunque potrebbe usarlo per generare e trasmettere video di qualità. Oltre a ciò, tutto ciò di cui hanno bisogno è un generatore vocale AI e un messaggio vocale. Pertanto, altri potrebbero utilizzarlo per creare prove giudiziarie false e altri tipi di contenuti dannosi. Qui sotto potete trovare il post di @rowancheung che lo mostra.
Esistono modi per prevenire i deepfake VASA-1?
VASA-1 mostra quanto l’intelligenza artificiale sia cresciuta in pochi anni e, sebbene sembri un po’ minaccioso, i funzionari hanno messo in atto nuove regole. Abbiamo ad esempio l’EU AI ACT, la prima normativa sull’Intelligenza Artificiale, che vieta i modelli minacciosi. Inoltre, Microsoft ci assicura che VASA-1 non sarà disponibile troppo presto. Tuttavia, ha superato la sua formazione e ha accolto nuove funzionalità.
Sfortunatamente, l’esistenza di VASA-1 dimostra che è possibile creare uno strumento generativo di intelligenza artificiale in grado di creare deepfake. Pertanto, gli autori di minacce esperti potrebbero creare la propria versione dannosa.
In definitiva, non saremo in grado di creare deepfake con VASA-1 troppo presto. Tuttavia, questa tecnologia ha il potenziale per diventare una vera minaccia alla sicurezza. Pertanto, Microsoft e altre aziende dovrebbero fare attenzione durante i test per evitare di lasciare vulnerabilità. Dopotutto, nessuno vuole un altro incidente di intelligenza artificiale.
Quali sono i tuoi pensieri? Hai paura che qualcuno possa usare un generatore di deepfake contro di te? Fateci sapere nei commenti.
Microsoft ha appena presentato VASA-1. È un nuovo modello di intelligenza artificiale in grado di trasformare 1 foto e 1 brano audio in un deepfake umano completamente realistico. È deciso a lasciarlo cadere subito prima delle elezioni 😬 pic.twitter.com/MuLkZVOKRM
— Rowan Cheung (@rowancheung) 18 aprile 2024
Lascia un commento