マイクロソフトは責任ある AI の原則を強調しています…倫理的 AI チームを解雇した後

マイクロソフトは責任ある AI の原則を強調しています…倫理的 AI チームを解雇した後

Microsoft は明らかに人工知能 (AI) イニシアチブに全面的に取り組んでおり、OpenAI の GPTBing ChatGitHub Copilot、およびMicrosoft 365 製品との今後のすべての AI 統合に多額の資金と労力を投資しています。消費者中心の AI 製品がこのように爆発的に成長しているにもかかわらず、同社は最近、責任ある AI 製品が確実に顧客に届けられるように設計された倫理チームを解雇しました。さて、皮肉なことに、Microsoft はブログ投稿で責任ある AI の原則を強調しています。

Microsoft は基本的に、AI 製品の構築方法を管理する一連の責任ある AI 原則を持っています。基盤には、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、説明責任の確保が含まれます。同社は次のように述べています。

責任ある AI 戦略の実装は、多くの組織が苦労している課題です。その結果、Microsoft は責任ある AI プラクティスを標準化し、他の企業や機械学習の専門家が AI システムの設計、構築、テスト、展開に採用できるようにしました。たとえば、顧客や開発者は、責任ある AI 影響評価テンプレートを活用して、AI システムの使用目的を特定できます。データの完全性、人または組織への悪影響。また、責任ある AI の 6 つのコア原則 (公平性、包括性、安全性と信頼性、説明責任、透明性) のそれぞれの目標にどのように対処するか。さらに、これにより、AI 開発者が説明責任を果たし、AI システムの機能についてエンドユーザーに透明性を提供できるようになります。どのように使用すべきか; その制限/制限と既知の問題。これは、機械学習チームが開発ライフサイクル アプローチを評価して、AI ソリューションが意図したとおりに動作しない原因となる要因を見落としていないことを検証するのに役立ちます。

マイクロソフトは、自社の AI 製品もこれらの原則に従っていることを保証するガバナンス チームを持っていると言っていますが、レドモンドからの最近のニュースは、同社が倫理と社会のチーム全体を解雇したことを示しています。このチームは、Microsoft の Responsible AI 原則が製品設計と密接に結びついていることを確認するために構築されたと伝えられています。しかし当時、Microsoft は、AI イニシアチブを管理するためのルールと原則を作成し、この分野への投資を続けているアクティブな Office of Responsible AI 部門を維持していると主張していました。

同社は、チームが解雇された理由についても明確に述べていませんが、元従業員は次のように述べていると伝えられています。

人々は、責任ある AI のオフィスから出てくる原則を見て、「これがどのように適用されるのかわかりません」と言うでしょう。私たちの仕事は、それらを示し、何もない地域でルールを作成することでした.

それにもかかわらず、Microsoft は、責任ある AI の原則に従うことを保証するツールと製品に投資していることを強調しています。注目すべき例は、2021 年に立ち上げられた Responsible AI ダッシュボードです。もちろん、これらのイニシアチブがAI 製品の潜在的な有害な影響を抑制するのに十分かどうかは、時が経てばわかります。最近では、スティーブ ウォズニアック、エヴァン シャープ、イーロン マスクなどの著名な技術者が、AI ラボに対して、製品の開発を少なくとも 6 か月間停止し、準備ができていない状態で急がないように請願しました。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です