IT 管理員可以阻止副駕駛對員工進行個人評估

IT 管理員可以阻止副駕駛對員工進行個人評估

微軟將推出一項新政策,讓 IT 管理員阻止 Copilot 在 Teams 會議中對人員進行個人評估。

根據 Microsoft 365 路線圖的最新條目,新政策將禁止 Copilot 做出可能推斷情緒、進行評估、討論個人特徵或使用上下文推斷答案的輸出。

啟用此策略後,Copilot 將無法回應使用者要求 AI 模型評估人員的請求,且使用者無法停用該策略。但是,該政策僅限於 Teams 會議中的 Copilot。

該條目的內容如下:

該政策將適用於所有設備,從桌面版 Teams 到 iOS、Mac 和 Android,微軟將於 10 月推出。

這家總部位於雷德蒙的科技巨頭希望透過它來阻止個人以其他方式使用 Copilot 來完成工作。因此,您將無法透過 Copilot 說同事的壞話,並期望 AI 模型來幫助您。它不會回答。

我們可能會在下週即將發布的 Microsoft 365:Copilot Wave 2 中看到此策略如何發揮作用。

您對這項新政策有何看法?

此策略使 IT 管理員能夠阻止 Copilot 可能推斷情緒、進行評估、討論個人特徵以及使用上下文推斷答案的回應。應用此設定後,它會限制副駕駛在用戶提示時對人員或群體進行推斷或評估的能力。用戶無法停用此設定。此設定適用於 Teams 會議中的 Copilot。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *