IT-beheerders kunnen voorkomen dat Copilot persoonlijke beoordelingen van werknemers maakt
Microsoft gaat een nieuw beleid invoeren waarmee IT-beheerders kunnen voorkomen dat Copilot persoonlijke beoordelingen maakt van mensen in Teams-vergaderingen.
Volgens de nieuwste versie van de Microsoft 365 Roadmap verbiedt het nieuwe beleid Copilot om te reageren met uitkomsten die emoties kunnen afleiden, evaluaties kunnen maken, persoonlijke eigenschappen kunnen bespreken of context kunnen gebruiken om antwoorden af te leiden.
Wanneer dit beleid is ingeschakeld, kan Copilot niet reageren op gebruikers die de AI-modellen vragen om mensen te evalueren, en kunnen gebruikers het beleid niet uitschakelen. Het beleid is echter beperkt tot Copilot in Teams-vergaderingen.
Dit is wat er in de post staat :
Het beleid is van toepassing op alle apparaten, van Teams op Desktop tot iOS, Mac en Android, en Microsoft introduceert het in oktober.
Daarmee hoopt de techgigant uit Redmond te voorkomen dat mensen Copilot op andere manieren gebruiken om werk gedaan te krijgen. Je kunt dus niet kwaadspreken over je collega’s met Copilot en verwachten dat het AI-model jouw kant opneemt. Het zal niet antwoorden.
Hoe dit beleid uitpakt, zien we wellicht tijdens de komende Microsoft 365: Copilot Wave 2, die volgende week gepland staat.
Wat vindt u van dit nieuwe beleid?
Met dit beleid kunnen IT-beheerders Copilot-reacties blokkeren die emoties kunnen afleiden, evaluaties kunnen maken, persoonlijke eigenschappen kunnen bespreken en context kunnen gebruiken om antwoorden af te leiden. Wanneer deze instelling wordt toegepast, beperkt dit de mogelijkheid van Copilot om gevolgtrekkingen of evaluaties te maken over personen of groepen wanneer gebruikers hierom vragen. Gebruikers kunnen deze instelling niet uitschakelen. De instelling is van toepassing op Copilot in Teams-vergaderingen.
Geef een reactie