Microsoft、OpenAI、Google、Anthropic が責任ある AI のためのフロンティア モデル フォーラムを開始

Microsoft、OpenAI、Google、Anthropic が責任ある AI のためのフロンティア モデル フォーラムを開始

生成型人工知能は、2023 年のテクノロジー業界の流行語になっています。また、生成型 AI が制御不能になる可能性についても多くの懸念があります。現在、大手 AI テクノロジー企業 4 社が連携してフロンティア モデル フォーラムを設立しました。このグループの目標は、生成 AI、特にフロンティア AI モデルの「安全で責任ある開発」を保証することです。

このグループは、フロンティア AI モデルを「現在最先端の既存モデルの機能を超え、さまざまなタスクを実行できる大規模な機械学習モデル」と説明しています。

グループの創設メンバーは、Microsoft、OpenAI、Google、Anthropic です。フロンティア モデル フォーラムを発表したGoogle のブログ投稿で、このグループは次の目標を発表しました。

  • AI の安全性研究を推進して、フロンティア モデルの責任ある開発を促進し、リスクを最小限に抑え、機能と安全性の独立した標準化された評価を可能にします。
  • フロンティア モデルの責任ある開発と導入のためのベスト プラクティスを特定し、一般の人々がテクノロジーの性質、機能、限界、影響を理解できるように支援します。
  • 政策立案者、学者、市民社会、企業と協力して、信頼と安全のリスクに関する知識を共有します。
  • 気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威との闘いなど、社会の最大の課題に対処できるアプリケーションを開発する取り組みを支援します。

新しいグループはまず諮問委員会を設立し、AIの安全性研究に取り組み、他の企業や政府とこれらの取り組みに関する情報を共有するとともに、フロンティアAIモデルの安全基準に関する推奨事項の策定を開始できるようにする。

共同メッセージにはマイクロソフト社長ブラッド・スミスの言葉が含まれていた。

AI テクノロジーを開発する企業には、AI テクノロジーが安全かつ確実に人間の制御下にあることを保証する責任があります。この取り組みは、AIが全人類に利益をもたらすよう、責任を持ってAIを推進し、課題に取り組む上でテクノロジー部門を団結させるための重要なステップとなる。

フロンティア モデル フォーラムは、フロンティア AI モデルにも取り組んでおり、「技術的および制度的アプローチを含め、フロンティア モデルの安全性への強い取り組みを示している」企業をこのグループに追加することにも前向きです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です