IT管​​理者は、Copilotが従業員の個人評価を行うことを阻止できる

IT管​​理者は、Copilotが従業員の個人評価を行うことを阻止できる

Microsoft は、IT 管理者が Teams 会議で Copilot が参加者の個人的な評価を行うことを完全にブロックできるようにする新しいポリシーを導入する予定です。

Microsoft 365 ロードマップの最新エントリによると、新しいポリシーでは、Copilot が感情を推測したり、評価を行ったり、個人的特徴について話し合ったり、コンテキストを使用して回答を推測したりする可能性のある出力で応答することを禁止します。

このポリシーを有効にすると、Copilot は AI モデルに人物の評価を依頼するユーザーに応答できなくなり、ユーザーはポリシーを無効にすることもできなくなります。ただし、このポリシーは Teams 会議の Copilot のみに制限されます。

エントリーには次のように書かれています:

このポリシーは、デスクトップ版の Teams から iOS、Mac、Android まですべてのデバイスに適用され、Microsoft は 10 月に導入する予定です。

レドモンドに本社を置くこのテクノロジー大手は、これによって、個人が Copilot を他の方法で使用して仕事をこなすことを阻止したいと考えている。つまり、Copilot を使って同僚の悪口を言っても、AI モデルがあなたの代わりに答えてくれるとは期待できないのだ。AI モデルは答えないのだ。

このポリシーがどのように機能するかは、来週予定されている Microsoft 365: Copilot Wave 2 で確認できるかもしれません。

この新しい方針についてどう思いますか?

このポリシーにより、IT 管理者は、感情を推測したり、評価を行ったり、個人的特徴について話し合ったり、コンテキストを使用して回答を推測したりする可能性のある Copilot の応答をブロックできます。この設定を適用すると、ユーザーから求められたときに、Copilot が人やグループについて推測または評価を行う機能が制限されます。ユーザーはこの設定を無効にすることはできません。この設定は、Teams 会議の Copilot に適用されます。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です