マイクロソフトの次の AI パートナーシップは、AI が人に害を及ぼさないことを望んでいます

マイクロソフトの次の AI パートナーシップは、AI が人に害を及ぼさないことを望んでいます

1 週間前、 Microsoftは Microsoft Inspire 2023 で、Meta との AI パートナーシップである Llama 2 を発表しました。 Llama 2 は、独自の AI の構築とトレーニングに使用できるオープンソースの大規模言語モデルですこの LLM は、最終的に AI の中心的な目標の 1 つであるAGI を達成する最初の手がかりになるとも噂されています。

さて、発表から一週間で色々なことが起こりました。ChatGPT を開発した OpenAI が、コードネーム G3PO という独自のオープンソース LLM をリリースするという噂もあります。発売日はまだ決まっていないが、2023年か2024年に発売される予定だ。

そして一転して、Microsoft は Anthropic、Google、Open AI と提携してフロンティア モデル フォーラムに参加したようです。プレスリリースによると、このパートナーシップは、フロンティア AI モデルの安全かつ責任ある開発の確保に重点を置いた業界団体です。

本日、Anthropic、Google、Microsoft、OpenAI は、フロンティア AI モデルの安全かつ責任ある開発の確保に重点を置いた新しい業界団体であるフロンティア モデル フォーラムの設立を発表しました。Frontier Model Forum は、技術評価とベンチマークの進歩、業界のベスト プラクティスと標準をサポートするソリューションの公開ライブラリの開発などを通じて、会員企業の技術的および運用上の専門知識を活用して AI エコシステム全体に利益をもたらします。

フロンティアモデルフォーラム

基本的に、フロンティア モデル フォーラムは、人間にとってリスクのない AI を構築したいと考えています。覚えていると思いますが、パートナーの 1 つである Anthropic は、 Claude 2 AIをリリースしたばかりで、このモデルは人々と安全に対話する方法で有名です。したがって、Claude 2 AI に似た、あるいはおそらくそれ以上の AI が多数登場することになります。いずれにしても、この業界に関しては素晴らしいニュースです。

AIに関してフロンティアモデルフォーラムは何をするのか

このパートナーシップは一連の中核となる目標と目的を確立しており、それらに従って機能します。彼らです:

  1. AI の安全性研究を推進して、フロンティア モデルの責任ある開発を促進し、リスクを最小限に抑え、機能と安全性の独立した標準化された評価を可能にします。
  2. フロンティア モデルの責任ある開発と展開のためのベスト プラクティスを特定し、テクノロジーの性質、機能、限界、影響を一般の人々が理解できるように支援します。
  3. 政策立案者、学者、市民社会、企業と協力して、信頼と安全のリスクに関する知識を共有します。
  4. 気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威との闘いなど、社会の最大の課題に対処できるアプリケーションを開発する取り組みを支援します。

このパートナーシップは組織との協力も可能です

フロンティア モデル AI を開発している組織の場合は、フロンティア モデル フォーラムへの参加と共同作業を申請できます。

フロンティアモデルフォーラム

パートナーシップに参加するには、組織として次の基準を満たす必要があります。

  • すでにフロンティア モデル (フォーラムで定義されている) を開発および展開しています。
  • この組織は、技術的および制度的アプローチなどを通じて、フロンティアモデルの安全性に対する強い取り組みを示すことができます。
  • あなたは組織として、共同イニシアチブへの参加やイニシアチブの発展と機能の支援などを通じて、フォーラムの取り組みの推進に積極的に貢献するつもりです。

AI に関してフォーラムが行うことはこれです

Frontier Model Forum は、安全で責任ある AI 開発プロセスをサポートしたいと考えており、2023 年にかけて 3 つの主要分野に焦点を当てます。

  • ベスト プラクティスの特定:安全基準と安全実践に焦点を当てた知識の共有とベスト プラクティスを促進し、幅広い潜在的なリスクを軽減します。
  • AI の安全性研究の推進: AI の安全性に関する最も重要な未解決の研究課題を特定することで、AI の安全性エコシステムをサポートします。フォーラムは、敵対的堅牢性、メカニズムの解釈可能性、拡張性のある監視、独立した研究へのアクセス、緊急行動、異常検出などの分野での取り組みを推進するための研究を調整します。当初は、フロンティア AI モデルの技術評価とベンチマークの公開ライブラリの開発と共有に重点が置かれます。
  • 企業と政府間の情報共有の促進: AI の安全性とリスクに関する情報を企業、政府、関係者間で共有するための信頼できる安全なメカニズムを確立します。フォーラムは、サイバーセキュリティなどの分野からの責任ある情報開示のベストプラクティスに従います。

2023 年を通じて、フロンティア モデル フォーラムは理事会の結成に取り組み、その後戦略を構築し、優先順位を確立します。しかし、この組織はすでに民間または公的を問わず、できるだけ多くの機関と協力することを検討しています。これには、市民社会や政府、AI に関心のあるその他の機関も含まれます。

この新しいパートナーシップについてどう思いますか? 参加することに興味がありますか? それともフロンティア AI モデルに興味がありますか? 以下のコメントセクションでお知らせください。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です