Sztuczna inteligencja Bing Chat obsługiwana przez GPT-4 napotyka problemy z jakością; Microsoft odpowiada

Sztuczna inteligencja Bing Chat obsługiwana przez GPT-4 napotyka problemy z jakością; Microsoft odpowiada

W ciągu ostatnich kilku tygodni użytkownicy zauważyli spadek wydajności opartej na GPT-4 sztucznej inteligencji Bing Chat. Ci, którzy często korzystają z funkcji Microsoft Edge Compose box, obsługiwanej przez Bing Chat, uznali ją za mniej pomocną, często unikając pytań lub nie pomagając w zapytaniu.

W oświadczeniu dla Windows Latest przedstawiciele Microsoftu potwierdzili, że firma aktywnie monitoruje opinie i planuje wprowadzić zmiany w celu rozwiązania problemów w najbliższej przyszłości.

Wielu wybrało Reddit, aby podzielić się swoimi doświadczeniami. Jeden z użytkowników wspomniał, że niegdyś niezawodne narzędzie do tworzenia wiadomości na pasku bocznym Bing przeglądarki Edge było ostatnio mniej niż gwiezdne. Podczas próby uzyskania kreatywnej treści w tonie informacyjnym lub nawet prośby o humorystyczne podejście do fikcyjnych postaci sztuczna inteligencja zapewniała dziwaczne wymówki.

Sztuczna inteligencja czatu Bing
Problem z jakością czatu Bing

Sugeruje, że omawianie kreatywnych tematów w określony sposób może zostać uznane za nieodpowiednie lub że humor może być problematyczny, nawet jeśli temat jest tak nieszkodliwy jak przedmiot nieożywiony. Inny Redditor podzielił się swoimi doświadczeniami z Bing do sprawdzania wiadomości e-mail w języku obcym.

Zamiast zazwyczaj odpowiedzieć na pytanie, Bing przedstawił listę alternatywnych narzędzi i wydawał się niemal lekceważący, doradzając użytkownikowi „rozgryźć to”. Jednak po pokazaniu swojej frustracji poprzez negatywne głosy i ponownej próbie, sztuczna inteligencja powróciła do swojej pomocnej postaci.

„Polegałem na Bing przy sprawdzaniu e-maili, które pisałem w moim trzecim języku. Ale właśnie dzisiaj, zamiast pomóc, skierował mnie do listy innych narzędzi, zasadniczo mówiąc mi, żebym sam to rozgryzł. Kiedy odpowiedziałem, odrzucając wszystkie jego odpowiedzi i inicjując nową rozmowę, w końcu się zobowiązał” – zauważył użytkownik w poście Reddit.

W obliczu tych obaw firma Microsoft podjęła działania, aby zaradzić tej sytuacji. W oświadczeniu dla Windows Latest rzecznik firmy potwierdził, że zawsze obserwuje opinie testerów i że użytkownicy mogą spodziewać się lepszych doświadczeń w przyszłości.

„Aktywnie monitorujemy opinie użytkowników i zgłaszane problemy, a gdy uzyskamy więcej informacji w wersji zapoznawczej, będziemy mogli zastosować te wnioski do dalszego ulepszania doświadczenia w miarę upływu czasu” – powiedział mi rzecznik firmy Microsoft w e-mailu.

Wśród tego pojawiła się teoria wśród użytkowników, że Microsoft może modyfikować ustawienia za kulisami.

Jeden z użytkowników zauważył: „Trudno pojąć takie zachowanie. W swej istocie sztuczna inteligencja jest po prostu narzędziem. Niezależnie od tego, czy łamiesz języki, czy decydujesz się opublikować lub usunąć treść, ciężar spoczywa na tobie. Myślenie, że Bing może być obraźliwe lub w inny sposób, jest kłopotliwe. Uważam, że to nieporozumienie prowadzi do nieporozumień, zwłaszcza wśród sceptyków sztucznej inteligencji, którzy następnie postrzegają sztuczną inteligencję jako pozbawioną esencji, prawie tak, jakby sama sztuczna inteligencja była twórcą treści”.

Społeczność ma swoje własne teorie, ale Microsoft potwierdził, że będzie nadal wprowadzał zmiany, aby poprawić ogólne wrażenia.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *