Gli amministratori IT possono impedire a Copilot di effettuare valutazioni personali dei dipendenti
Microsoft si appresta a introdurre una nuova policy che consentirà agli amministratori IT di impedire a Copilot di effettuare valutazioni personali sulle persone esclusivamente durante le riunioni di Teams.
Secondo l’ultima voce della Roadmap di Microsoft 365, la nuova politica impedirà a Copilot di rispondere con output che potrebbero dedurre emozioni, effettuare valutazioni, discutere tratti personali o utilizzare il contesto per dedurre risposte.
Quando questa policy è abilitata, Copilot non sarà in grado di rispondere agli utenti che chiedono ai modelli AI di valutare le persone e gli utenti non possono disabilitare la policy. Tuttavia, la policy è limitata solo a Copilot nelle riunioni di Teams.
Ecco cosa dice la voce :
La norma si applicherà a tutti i dispositivi, da Teams su Desktop a iOS, Mac e Android, e Microsoft la introdurrà a ottobre.
Con questo, il gigante della tecnologia di Redmond spera di impedire alle persone di usare Copilot in altri modi per lavorare. Quindi non potrai sparlare dei tuoi colleghi con Copilot e aspettarti che il modello AI faccia la tua parte. Non risponderà.
Potremmo vedere come funziona questa politica al prossimo Microsoft 365: Copilot Wave 2, in programma la prossima settimana.
Cosa pensi di questa nuova politica?
Questa policy consente agli amministratori IT di bloccare le risposte di Copilot che potrebbero dedurre emozioni, fare valutazioni, discutere tratti personali e usare il contesto per dedurre risposte. Quando questa impostazione viene applicata, limita la capacità di Copilot di fare inferenze o valutazioni su persone o gruppi quando richiesto dagli utenti. Gli utenti non possono disabilitare questa impostazione. L’impostazione si applica a Copilot nelle riunioni di Teams.
Lascia un commento