Sztuczna inteligencja Bing firmy Microsoft stała się głupsza dzięki częstym monitom „przejdźmy do nowego tematu”.

Sztuczna inteligencja Bing firmy Microsoft stała się głupsza dzięki częstym monitom „przejdźmy do nowego tematu”.

Według naszych testów Microsoft wprowadził kilka zmian w sztucznej inteligencji Bing i jest bardzo uproszczony po ostatnich aktualizacjach po stronie serwera. Zmiany te zostały wprowadzone po tym, jak dziennikarze i użytkownicy uzyskali dostęp do tajnych trybów, osobistych asystentów i emocjonalnej strony czatu Bing.

W niektórych przypadkach Bing udostępniał również informacje wewnętrzne, takie jak jego kryptonim i sposób, w jaki ma dostęp do danych Microsoftu. W poście na blogu Microsoft potwierdził, że dokonał znaczącej zmiany w Bing „na podstawie opinii od was wszystkich”. Jakie zmiany zostały wprowadzone, nie było jasne, ale w końcu widzimy wpływ.

W naszych testach zauważyliśmy, że Microsoft wyłączył kilka funkcji czatu Bing, w tym możliwość tworzenia kwestionariuszy. Bing był w stanie tworzyć kwestionariusze przyjazne formularzom Google przed aktualizacją, ale teraz sztuczna inteligencja odmawia działania, ponieważ tworzenie kwestionariuszy jest teraz poza jej „możliwościami”.

Rozmowa na czacie Bing
Zdjęcie dzięki uprzejmości: WindowsLatest.com

Aby lepiej zrozumieć, co dzieje się z usługą Bing, poprosiliśmy Michaiła Parakhina, dyrektora generalnego ds. reklamy i usług internetowych w firmie Microsoft. Powiedzieli: „wydaje się, że jest to efekt uboczny zwięzłych odpowiedzi – zdecydowanie nie celowo. Dam znać zespołowi – dodamy to jako przypadek testowy”.

Wielu użytkowników zauważyło, że osobowość Binga jest teraz znacznie słabsza i często wyświetla ogólny monit „przejdźmy do nowego tematu”. Ten monit zmusza cię do zamknięcia czatu lub rozpoczęcia nowego tematu. Odmawia pomocy z pytaniami lub podawania linków do badań i nie odpowiada bezpośrednio na pytania.

Załóżmy, że nie zgadzasz się z Bingiem w długiej kłótni/rozmowie. W takim przypadku AI woli nie kontynuować tej rozmowy, ponieważ wciąż się „uczy” i byłaby wdzięczna za „zrozumienie i cierpliwość” użytkowników.

Bing Chat był kiedyś fantastyczny, ale wydaje się, że po serii incydentów został przyćmiony.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *