VASA-1은 선거를 성사시키거나 중단시킬 딥페이크의 주요 생성기가 될 수 있습니다.
Microsoft의 VASA-1은 사진과 오디오 클립만으로 딥페이크를 만들 수 있는 새로운 도구입니다. 결국 범죄자들은 이를 다양한 방법으로 사용할 수 있습니다. 다행스럽게도 개발자가 아직 연구 중이기 때문에 현재로서는 프레임워크에 액세스할 수 없습니다.
Microsoft 에 따르면 러시아와 중국 해커는 VASA-1과 유사한 도구를 사용하여 복잡한 딥페이크 비디오를 생성합니다. 이를 통해 그들은 미국 선거에 영향을 미치기 위해 기존 사회 정치적 문제에 대한 잘못된 정보를 퍼뜨립니다. 예를 들어, 그들의 방법 중 하나는 긴급한 문제에 대해 이야기하는 무명 정치인의 가짜 비디오를 만드는 것입니다. 게다가 AI로 생성된 전화통화를 활용해 더욱 신뢰도를 높인다.
위협 행위자는 VASA-1 및 유사한 도구를 사용하여 무엇을 할 수 있습니까?
위협 행위자는 VASA-1과 Sora AI와 같은 도구를 사용하여 유명인이나 대중이 등장하는 딥페이크를 만들 수도 있습니다. 결과적으로 사이버 범죄자는 VIP의 평판을 손상시키거나 VIP의 신원을 이용해 사기를 칠 수 있습니다. 또한, 가짜 광고 캠페인을 홍보하기 위해 비디오 생성 앱을 사용할 수도 있습니다.
VASA-1을 사용하여 전문가의 딥페이크를 만드는 것이 가능합니다. 예를 들어, 얼마 전 한 광고 회사에서는 체중 감량 약과 같은 가짜 시술과 제품을 홍보하기 위해 발병 전문의인 Dana Brems의 동영상을 제작했습니다. 또한 이러한 유형의 사기를 저지르는 대부분의 위협 행위자는 중국 출신입니다.
VASA-1로 생성된 딥페이크가 복잡하더라도 이를 사용하기 위해 고급 지식이 필요하지 않습니다. 결국, 그것은 간단한 UI를 가지고 있습니다. 따라서 누구나 이를 사용하여 고품질의 비디오를 생성하고 스트리밍할 수 있습니다. 그 외에도 다른 모든 필요한 것은 AI 음성 생성기와 음성 메시지입니다. 따라서 다른 사람들은 이를 사용하여 가짜 법원 증거 및 기타 유형의 악의적인 콘텐츠를 만들 수 있습니다. 아래에서 이를 선보이는 @rowancheung 님의 게시물을 확인하실 수 있습니다 .
VASA-1 딥페이크를 방지할 수 있는 방법이 있나요?
VASA-1은 몇 년 만에 AI가 얼마나 성장했는지 보여주며, 다소 위협적으로 느껴지긴 하지만 관계자들은 새로운 규칙을 적용했습니다. 예를 들어, 위협적인 모델을 금지하는 인공 지능의 첫 번째 규정인 EU AI ACT가 있습니다. 또한 Microsoft는 VASA-1이 너무 빨리 출시되지 않을 것이라고 확신합니다. 그러나 훈련 수준을 뛰어넘어 새로운 기능을 수용했습니다.
불행하게도 VASA-1의 존재는 딥페이크를 생성할 수 있는 AI 생성 도구를 만드는 것이 가능하다는 것을 보여줍니다. 따라서 숙련된 위협 행위자는 자신만의 악성 버전을 만들 수 있습니다.
궁극적으로 우리는 VASA-1을 사용하여 너무 빨리 딥페이크를 만들 수 없게 될 것입니다. 그러나 이 기술은 실제 보안 위협이 될 가능성이 있습니다. 따라서 Microsoft와 다른 회사에서는 취약점이 남지 않도록 테스트할 때 주의해야 합니다. 결국, 누구도 또 다른 AI 사고를 원하지 않습니다.
당신의 생각은 무엇입니까? 누군가가 당신에게 딥페이크 생성기를 사용할 수 있다는 두려움이 있나요? 댓글을 통해 알려주세요.
Microsoft는 방금 VASA-1을 출시했습니다. 사진 1장과 오디오 1장을 완전히 실물과 같은 인간 딥페이크로 바꿀 수 있는 새로운 AI 모델입니다. 선거 직전에 이 기능을 삭제하고 싶습니다 😬 pic.twitter.com/MuLkZVOKRM
— 로완 청(@rowancheung) 2024년 4월 18일
답글 남기기