VASA-1은 선거를 성사시키거나 중단시킬 딥페이크의 주요 생성기가 될 수 있습니다.

VASA-1은 선거를 성사시키거나 중단시킬 딥페이크의 주요 생성기가 될 수 있습니다.

Microsoft의 VASA-1은 사진과 오디오 클립만으로 딥페이크를 만들 수 있는 새로운 도구입니다. 결국 범죄자들은 ​​이를 다양한 방법으로 사용할 수 있습니다. 다행스럽게도 개발자가 아직 연구 중이기 때문에 현재로서는 프레임워크에 액세스할 수 없습니다.

Microsoft 에 따르면 러시아와 중국 해커는 VASA-1과 유사한 도구를 사용하여 복잡한 딥페이크 비디오를 생성합니다. 이를 통해 그들은 미국 선거에 영향을 미치기 위해 기존 사회 정치적 문제에 대한 잘못된 정보를 퍼뜨립니다. 예를 들어, 그들의 방법 중 하나는 긴급한 문제에 대해 이야기하는 무명 정치인의 가짜 비디오를 만드는 것입니다. 게다가 AI로 생성된 전화통화를 활용해 더욱 신뢰도를 높인다.

위협 행위자는 VASA-1 및 유사한 도구를 사용하여 무엇을 할 수 있습니까?

위협 행위자는 VASA-1과 Sora AI와 같은 도구를 사용하여 유명인이나 대중이 등장하는 딥페이크를 만들 수도 있습니다. 결과적으로 사이버 범죄자는 VIP의 평판을 손상시키거나 VIP의 신원을 이용해 사기를 칠 수 있습니다. 또한, 가짜 광고 캠페인을 홍보하기 위해 비디오 생성 앱을 사용할 수도 있습니다.

VASA-1을 사용하여 전문가의 딥페이크를 만드는 것이 가능합니다. 예를 들어, 얼마 전 한 광고 회사에서는 체중 감량 약과 같은 가짜 시술과 제품을 홍보하기 위해 발병 전문의인 Dana Brems의 동영상을 제작했습니다. 또한 이러한 유형의 사기를 저지르는 대부분의 위협 행위자는 중국 출신입니다.

VASA-1로 생성된 딥페이크가 복잡하더라도 이를 사용하기 위해 고급 지식이 필요하지 않습니다. 결국, 그것은 간단한 UI를 가지고 있습니다. 따라서 누구나 이를 사용하여 고품질의 비디오를 생성하고 스트리밍할 수 있습니다. 그 외에도 다른 모든 필요한 것은 AI 음성 생성기와 음성 메시지입니다. 따라서 다른 사람들은 이를 사용하여 가짜 법원 증거 및 기타 유형의 악의적인 콘텐츠를 만들 수 있습니다. 아래에서 이를 선보이는 @rowancheung 님의 게시물을 확인하실 수 있습니다 .

VASA-1 딥페이크를 방지할 수 있는 방법이 있나요?

VASA-1은 몇 년 만에 AI가 얼마나 성장했는지 보여주며, 다소 위협적으로 느껴지긴 하지만 관계자들은 새로운 규칙을 적용했습니다. 예를 들어, 위협적인 모델을 금지하는 인공 지능의 첫 번째 규정인 EU AI ACT가 있습니다. 또한 Microsoft는 VASA-1이 너무 빨리 출시되지 않을 것이라고 확신합니다. 그러나 훈련 수준을 뛰어넘어 새로운 기능을 수용했습니다.

불행하게도 VASA-1의 존재는 딥페이크를 생성할 수 있는 AI 생성 도구를 만드는 것이 가능하다는 것을 보여줍니다. 따라서 숙련된 위협 행위자는 자신만의 악성 버전을 만들 수 있습니다.

궁극적으로 우리는 VASA-1을 사용하여 너무 빨리 딥페이크를 만들 수 없게 될 것입니다. 그러나 이 기술은 실제 보안 위협이 될 가능성이 있습니다. 따라서 Microsoft와 다른 회사에서는 취약점이 남지 않도록 테스트할 때 주의해야 합니다. 결국, 누구도 또 다른 AI 사고를 원하지 않습니다.

당신의 생각은 무엇입니까? 누군가가 당신에게 딥페이크 생성기를 사용할 수 있다는 두려움이 있나요? 댓글을 통해 알려주세요.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다