Los administradores de TI pueden evitar que Copilot realice evaluaciones personales de los empleados
Microsoft se dispone a introducir una nueva política que permita a los administradores de TI impedir que Copilot realice evaluaciones personales sobre las personas únicamente en las reuniones de Teams.
Según la última entrada de la hoja de ruta de Microsoft 365, la nueva política prohibirá a Copilot responder con resultados que puedan inferir emociones, realizar evaluaciones, analizar rasgos personales o usar el contexto para deducir respuestas.
Cuando esta política está habilitada, Copilot no podrá responder a los usuarios que soliciten a los modelos de IA que evalúen a las personas, y los usuarios no pueden deshabilitar la política. Sin embargo, la política está limitada a Copilot en las reuniones de Teams únicamente.
Esto es lo que dice la entrada :
La política se aplicará a todos los dispositivos, desde Teams en Desktop hasta iOS, Mac y Android, y Microsoft la presentará en octubre.
Con esto, el gigante tecnológico con sede en Redmond espera evitar que las personas utilicen Copilot de otras formas para realizar su trabajo. De esta forma, no podrás hablar mal de tus compañeros de trabajo con Copilot y esperar que el modelo de IA se ponga de tu parte. No servirá de nada.
Podríamos ver cómo funciona esta política en el próximo Microsoft 365: Copilot Wave 2, programado para la próxima semana.
¿Qué opinas de esta nueva política?
Esta política permite a los administradores de TI bloquear las respuestas de Copilot que puedan inferir emociones, realizar evaluaciones, analizar rasgos personales y usar el contexto para deducir respuestas. Cuando se aplica esta configuración, se restringe la capacidad de Copilot de realizar inferencias o evaluaciones sobre personas o grupos cuando los usuarios se lo solicitan. Los usuarios no pueden deshabilitar esta configuración. La configuración se aplica a Copilot en las reuniones de Teams.
Deja una respuesta