VASA-1 可能成為影響選舉成敗的深度造假的主要生成器
微軟的 VASA-1 是一款新工具,可讓您僅使用照片和音訊片段來建立深度偽造品。畢竟,不法分子可以透過多種方式使用它。幸運的是,目前該框架還無法訪問,因為開發人員仍在研究它。
據微軟稱,俄羅斯和中國駭客使用與 VASA-1 類似的工具來產生複雜的深度偽造影片。他們透過他們傳播有關現有社會政治問題的錯誤訊息,以影響美國選舉。例如,他們的方法之一是製作一個不太知名的政治家談論緊迫問題的虛假影片。此外,他們還使用人工智慧生成的電話來使其更加可信。
威脅行為者可以使用 VASA-1 和類似工具做什麼?
威脅行為者還可以使用 VASA-1 和 Sora AI 等工具來創建以名人或公眾人物為主角的深度偽造品。因此,網路犯罪分子可能會損害 VIP 的聲譽或利用他們的身份來欺騙我們。此外,還可以使用影片產生應用程式來宣傳虛假廣告活動。
可以使用 VASA-1 來創造專家的深度偽造品。例如,不久前,一家廣告公司製作了足病醫生Dana Brems 的視頻,以宣傳虛假做法和產品,例如減肥藥。此外,大多數進行此類詐欺的威脅行為者都來自中國。
即使使用 VASA-1 產生的 Deepfakes 很複雜,您也不需要高級知識來使用它。畢竟,它有一個簡單的用戶介面。因此,任何人都可以使用它來產生和播放定性影片。除此之外,其他人只需要一個人工智慧語音產生器和一個語音訊息。因此,其他人可能會用它來創建虛假的法庭證據和其他類型的惡意內容。您可以在下面找到@rowancheung展示它的帖子。
有什麼方法可以防止 VASA-1 深度偽造嗎?
VASA-1 顯示了人工智慧在幾年內的發展程度,儘管感覺有點威脅,但官員們制定了新的規則。例如,我們有《歐盟人工智慧法案》,這是第一個人工智慧法規,禁止威脅模型。此外,Microsoft 向我們保證 VASA-1 不會太快推出。然而,它超出了其訓練範圍並適應了新功能。
不幸的是,VASA-1 的存在表明,創建能夠創建深度贗品的 AI 生成工具是可能的。因此,經驗豐富的威脅參與者可以製作自己的惡意版本。
最終,我們將無法過早使用 VASA-1 創建深度偽造品。然而,這項技術有可能成為真正的安全威脅。因此,微軟和其他公司在測試時應該小心謹慎,以免留下漏洞。畢竟,沒有人希望再次發生人工智慧事件。
你怎麼看?您是否擔心有人會使用 Deepfake 生成器來對付您?讓我們在評論中知道。
微軟剛剛推出了 VASA-1。
— Rowan Cheung (@rowancheung) 2024 年 4 月 18 日
發佈留言