IT 관리자는 Copilot이 직원에 대한 개인적 평가를 하는 것을 방지할 수 있습니다.
Microsoft는 IT 관리자가 Teams 회의에서 Copilot이 다른 사용자에 대한 개인적인 평가를 하는 것을 완전히 차단할 수 있는 새로운 정책을 도입할 예정입니다.
Microsoft 365 로드맵의 최신 항목에 따르면, 새로운 정책에서는 Copilot이 감정을 유추하거나, 평가를 내리거나, 개인적 특성을 논의하거나, 맥락을 사용하여 답을 추론할 수 있는 출력으로 응답하는 것을 금지합니다.
이 정책을 활성화하면 Copilot은 AI 모델에 사람을 평가해 달라고 요청하는 사용자에게 응답할 수 없으며, 사용자는 정책을 비활성화할 수 없습니다. 그러나 이 정책은 Teams 회의에서만 Copilot으로 제한됩니다.
항목의 내용은 다음과 같습니다 .
이 정책은 데스크톱용 Teams부터 iOS, Mac, Android까지 모든 기기에 적용되며, Microsoft는 10월에 이를 도입할 예정입니다.
이를 통해 레드먼드에 본사를 둔 기술 대기업은 개인이 Copilot을 다른 방식으로 사용하여 업무를 처리하는 것을 막고자 합니다. 따라서 Copilot으로 동료를 비난하고 AI 모델이 당신의 역할을 대신하기를 기대할 수 없습니다. 대답하지 않습니다.
다음 주에 예정된 Microsoft 365: Copilot Wave 2에서 이 정책이 어떻게 적용되는지 확인할 수 있을 것입니다.
이 새로운 정책에 대해 어떻게 생각하시나요?
이 정책을 사용하면 IT 관리자가 감정을 추론하거나, 평가를 내리거나, 개인적 특성을 논의하거나, 맥락을 사용하여 답변을 추론할 수 있는 Copilot 응답을 차단할 수 있습니다. 이 설정을 적용하면 사용자가 그렇게 하라고 요청했을 때 Copilot이 사람 또는 그룹에 대해 추론이나 평가를 내리는 기능이 제한됩니다. 사용자는 이 설정을 비활성화할 수 없습니다. 이 설정은 Teams 회의의 Copilot에 적용됩니다.
답글 남기기