OpenAIが1から5までの新しいAI能力スケールを導入
ブルームバーグによると、OpenAIは、大規模言語モデルの人工汎用知能(AGI)に向けた進捗状況を測る社内基準を開発した。この5段階の分類システムは、全社会議中に従業員に公開され、将来的には投資家や外部関係者に公開される予定だ。この基準は、AI機能の進歩を追跡するための枠組みとして機能し、人間レベルの人工知能を実現するためのロードマップを提供する。
5つのレベル
-
レベル 1: 現在の会話型 AI システム (例: ChatGPT)
- 人間と会話できるAIを表す
- OpenAIは現在のモデルがこのレベルにあると考えている
-
レベル2: 博士レベルの基本的な問題を解決できるAI
- 「推論者」と呼ばれる
- 外部ツールにアクセスすることなく、博士レベルの教育を受けた人間と同等の問題を解決できる
- OpenAIはこのレベルに近づいている
-
レベル3: ユーザーに代わってタスクを実行できるAIエージェント
- 「エージェント」と呼ばれる
- ユーザーに代わって数日間対応できる
- AIの自律性における大きな飛躍を表す
-
レベル4: 新たなイノベーションを生み出すAI
- 「イノベーター」と呼ばれる
- 創造的な問題解決能力と斬新なアイデアを生み出す能力を示す
-
レベル5: 人間の組織と同等のタスクを実行できるAI
- 「組織」と呼ばれる
- 人間の組織能力を超える可能性のある最高レベルのAI機能を表します
OpenAI の AGI 定義
- 高度に自律的なシステム
- 最も経済的価値のある仕事で人間を上回る
- OpenAIの使命は、AGIが全人類に利益をもたらすようにすることです。
- 同社はAGI開発に伴う潜在的な利益とリスクの両方を認識している。
キーポイント
- OpenAIは現在レベル2に向けて前進している
- 同社は、他の関連プロジェクトが最初にAGIを達成した場合、それらを支援することを約束している。
- AGIの実現に関する専門家の予測は大きく異なる
- サム・アルトマンは2023年10月に「5年くらい」と予測した。
- 分類システムは現在進行中であり、フィードバックに基づいて調整される可能性があります。
最近の動向
- ロスアラモス国立研究所との提携を発表
- 目的: GPT-4のような高度なAIモデルが科学研究にどのように貢献できるかを調査する
- 目標: 米国政府向けのAIの能力と安全性を評価するためのフレームワークを開発する
- OpenAIは、人間のような推論能力を示すGPT-4に関する研究プロジェクトを実演した。
課題と懸念
- AGIの実現には、数十億ドルの費用がかかる可能性のある大規模な計算能力への投資が必要である。
- OpenAIは2024年5月に安全チームを解散した
- 安全性よりも「派手な商品」を優先することへの懸念
- AGIに到達するための基準をどのように決定するかについてのAIコミュニティ内での議論
業界の視点
- Google DeepMindのような他の企業も、AIの能力を評価するための同様のフレームワークを提案している。
- AI業界は、自動運転車の自動化レベルを評価する自動車業界のシステムと類似点を見出している。
- アマゾンウェブサービスのマット・ウッドのような専門家は、AIはまだ指数関数的な成長段階に達していないと示唆している。
この拡張プレゼンテーションでは、OpenAI の AI パワー測定システムとそれが人工汎用知能の開発に与える影響について、より包括的な概要を説明します。
出典: TheVerge
コメントを残す