Administradores de TI podem impedir que o Copilot faça avaliações pessoais dos funcionários
A Microsoft está prestes a introduzir uma nova política que permite que administradores de TI bloqueiem o Copilot de fazer avaliações pessoais sobre pessoas inteiramente em reuniões do Teams.
De acordo com a última entrada no Roteiro do Microsoft 365, a nova política proibirá o Copilot de responder com resultados que possam inferir emoções, fazer avaliações, discutir características pessoais ou usar contexto para deduzir respostas.
Quando essa política estiver habilitada, o Copilot não poderá responder aos usuários que solicitam que os modelos de IA avaliem pessoas, e os usuários não poderão desabilitar a política. No entanto, a política é limitada ao Copilot somente em reuniões do Teams.
Aqui está o que a entrada diz :
A política será aplicada a todos os dispositivos, do Teams no Desktop ao iOS, Mac e Android, e a Microsoft a introduzirá em outubro.
Com isso, a gigante da tecnologia sediada em Redmond espera impedir que indivíduos usem o Copilot de outras maneiras para fazer o trabalho. Então você não poderá falar mal de seus colegas de trabalho com o Copilot e esperar que o modelo de IA faça sua parte. Ele não responderá.
Poderemos ver como essa política funciona no próximo Microsoft 365: Copilot Wave 2, programado para a próxima semana.
O que você acha dessa nova política?
Esta política permite que administradores de TI bloqueiem respostas do Copilot que possam inferir emoções, fazer avaliações, discutir características pessoais e usar contexto para deduzir respostas. Quando esta configuração é aplicada, ela restringe a capacidade do copiloto de fazer inferências ou avaliações sobre pessoas ou grupos quando solicitado pelos usuários. Os usuários não podem desabilitar esta configuração. A configuração se aplica ao Copilot em reuniões do Teams.
Deixe um comentário