VASA-1は選挙の成否を左右するディープフェイクの主な生成源になる可能性がある

VASA-1は選挙の成否を左右するディープフェイクの主な生成源になる可能性がある

Microsoft の VASA-1 は、写真とオーディオ クリップだけでディープフェイクを作成できる新しいツールです。結局のところ、犯罪者はさまざまな方法でこれを使用できます。幸いなことに、現時点では、開発者がまだ研究中であるため、フレームワークにアクセスすることはできません。

Microsoftによると、ロシアと中国のハッカーは、VASA-1 と同様のツールを使用して複雑なディープフェイク動画を生成しています。それらを通じて、彼らは既存の社会政治的問題に関する偽情報を広め、米国の選挙に影響を与えています。たとえば、彼らの手法の 1 つは、あまり知られていない政治家が緊急の問題について話している偽の動画を作成することです。さらに、彼らは AI で生成された電話通話を使用して、より信憑性を高めています。

脅威アクターは VASA-1 や同様のツールを使用して何ができるでしょうか?

脅威アクターは、VASA-1 や Sora AI などのツールを使用して、有名人や公人をフィーチャーしたディープフェイクを作成することもできます。その結果、サイバー犯罪者は VIP の評判を傷つけたり、その身元を利用して詐欺を働いたりする可能性があります。さらに、ビデオ生成アプリを使用して偽の広告キャンペーンを宣伝することも可能です。

VASA-1 を使って専門家のディープフェイクを作成することもできます。たとえば、少し前、ある広告会社が足病医のダナ・ブレムスのビデオを作成し、減量薬などの偽の施術や製品を宣伝しました。また、この種の詐欺を行う脅威アクターのほとんどは中国出身です。

VASA-1 で生成されたディープフェイクは複雑ですが、使用するのに高度な知識は必要ありません。結局のところ、シンプルな UI を備えているからです。そのため、誰でもこれを使用して、質の高いビデオを生成してストリーミングすることができます。それ以外に必要なのは、AI 音声ジェネレーターと音声メッセージだけです。そのため、他の人はこれを使用して、偽の法廷証拠やその他の種類の悪意のあるコンテンツを作成する可能性があります。以下は、@rowancheungがこれを紹介している投稿です。

VASA-1 ディープフェイクを防ぐ方法はありますか?

VASA-1 は、AI が数年でどれだけ成長したかを示しており、少し脅威に感じられますが、当局は新しい規則を制定しました。たとえば、脅威となるモデルを禁止する人工知能の最初の規制である EU AI ACT があります。さらに、Microsoft は、VASA-1 がすぐには利用できないことを保証しています。しかし、VASA-1 はトレーニングを上回り、新しい機能に対応しました。

残念ながら、VASA-1 の存在は、ディープフェイクを作成できる AI 生成ツールの作成が可能であることを示しており、経験豊富な脅威アクターが独自の悪意のあるバージョンを作成する可能性があります。

結局のところ、VASA-1 でディープフェイクを作成できるようになるのはそう遠くないだろう。しかし、この技術は実際のセキュリティ上の脅威となる可能性がある。したがって、Microsoft やその他の企業は、脆弱性を残さないようにテストする際に注意する必要がある。結局のところ、誰も AI のインシデントが再び発生することを望んでいないのだ。

あなたはどう思いますか?誰かがディープフェイクジェネレーターを使ってあなたに対して攻撃してくるのではないかと心配していますか?コメント欄でお知らせください。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です