Administratorzy IT mogą uniemożliwić Copilotowi dokonywanie osobistych ocen pracowników
Firma Microsoft zamierza wprowadzić nową politykę, która umożliwi administratorom IT całkowite zablokowanie aplikacji Copilot możliwości dokonywania osobistych ocen osób biorących udział w spotkaniach w aplikacji Teams.
Zgodnie z najnowszym wpisem w planie działania platformy Microsoft 365 nowa polityka zabroni użytkownikowi Copilot udzielania odpowiedzi, które mogłyby sugerować emocje, dokonywać ocen, omawiać cechy osobiste lub wykorzystywać kontekst do wyciągania wniosków.
Gdy ta zasada jest włączona, Copilot nie będzie mógł odpowiadać użytkownikom proszącym modele AI o ocenę ludzi, a użytkownicy nie mogą wyłączyć tej zasady. Jednak zasada jest ograniczona tylko do Copilot w spotkaniach Teams.
Oto co mówi wpis :
Polityka ta będzie obowiązywać na wszystkich urządzeniach, od aplikacji Teams na komputerach stacjonarnych po urządzenia z systemem iOS, Mac i Android. Firma Microsoft wprowadzi ją w październiku.
Dzięki temu gigant technologiczny z Redmond ma nadzieję powstrzymać osoby przed używaniem Copilota w inny sposób, aby wykonać pracę. Dzięki temu nie będziesz mógł obgadywać swoich współpracowników za pomocą Copilota i oczekiwać, że model AI weźmie twoją część. Nie odpowie.
Być może przekonamy się, jak ta polityka będzie działać na zbliżającej się konferencji Microsoft 365: Copilot Wave 2, zaplanowanej na przyszły tydzień.
Co myślisz o tej nowej polityce?
Ta polityka umożliwia administratorom IT blokowanie odpowiedzi Copilota, które mogą wnioskować o emocjach, dokonywać ocen, omawiać cechy osobiste i używać kontekstu do wnioskowania odpowiedzi. Po zastosowaniu tego ustawienia ogranicza ono możliwość Copilota do wyciągania wniosków lub ocen na temat osób lub grup, gdy użytkownicy o to proszą. Użytkownicy nie mogą wyłączyć tego ustawienia. Ustawienie dotyczy Copilota w spotkaniach Teams.
Dodaj komentarz