マイクロソフトは米国国防総省にChatGPTとDALL-Eを提案した
マイクロソフトは米国国防総省(DoD)に、ChatGPTやDall-EなどのOpenAIとAzure AIツールの使用を提案した。これらを使用することで、DoDはソフトウェアを構築し、軍事作戦を実行できる。さらに、国防総省は文書分析や機械メンテナンスなどのさまざまなタスクにAIツールを使用することでメリットを享受できる。
The Interceptによると、マイクロソフトが米国防総省(DoD)にAIツールの使用を提案したのは2023年だった。しかし、2024年にOpenAIは軍事利用の禁止を解除した。しかし、同社の広報担当者であるリズ・ボージャス氏は、OpenAIのポリシーでは同社のツールを使って他人に危害を加えることは認められていないと述べた。
しかし、落とし穴がある。同社のツールは Microsoft Azure を通じて利用できる。そのため、OpenAI がポリシーによりツールを販売しない場合でも、Microsoft は Azure OpenAI バージョンを戦争に使用できる。
軍隊ではAIはどのように使用されていますか?
一方、マイクロソフトが国防総省に提出したプレゼンテーションには、AI ツールを戦争に活用する例がいくつか紹介されている。たとえば、Dall-E は画像を作成し、戦場管理システムのトレーニングを改善できる。
さらに、Azure OpenAI ツールは、パターンを識別し、予測や戦略的な決定を下すのに役立ちます。さらに、米国国防総省 (DoD) は、監視、科学研究、その他のセキュリティ目的で AOAI を使用できます。
アンナ・マカンジュ氏によると、OpenAI は軍事利用の禁止を解除した後、国防総省と協力し始めたという。しかし、同社は依然として AI ツールの戦争利用を禁止している。しかし、国防総省は監視カメラ映像の分析などの作業にそのツールを使用できる。
AIは人類にとって脅威となるのでしょうか?
ちょっとした論争が起こっています。テクノロジー倫理に取り組んでいるブリアナ・ローゼン氏によると、戦闘システムは、特に AI を使用する場合、間違いなく私たちに危害をもたらします。したがって、OpenAI のツールは、同社のポリシーに違反する可能性が高いでしょう。
機械学習の安全エンジニアであるハイディ・クラーフ氏は、国防総省と国防総省が使用する AI ツールが脅威になる可能性があると間接的に語った。結局のところ、AI は常に正確な結果を生成するわけではない。それに加えて、研究者が AI 生成コンテンツで AI をトレーニングすると、その答えは劣化する。また、AI 画像ジェネレーターは、手足や指の数を正確に表示することすらできない。そのため、現場でのリアルな存在感を生成することができないのだ。
もうひとつの懸念は、AI の幻覚です。結局のところ、Google の画像ジェネレーターに何が起こったかは、ほとんどの人が知っています。また、AI が回答に予測を使用しようとする可能性もあります。その結果、戦闘管理システムに不具合が生じる可能性があります。
結局のところ、マイクロソフトと OpenAI は、米国防総省 (DoD) および国防総省との AI ツール契約から数十億ドルを得ています。また、彼らの AI は、特に戦争訓練や監視に使用された場合、必然的に危害をもたらします。しかし、彼らは AI エラーの量を減らすよう取り組む必要があります。そうしないと、彼らのミスが大惨事につながる可能性があります。その上、米国政府は、特に Azure データ侵害の後、マイクロソフトのサービスに注意する必要があります。
あなたの考えは?政府は軍事力を強化するために AI を利用すべきでしょうか?コメントでお知らせください。
コメントを残す