Bing Chat AI powered by GPT-4 hat Qualitätsprobleme; Microsoft antwortet

Bing Chat AI powered by GPT-4 hat Qualitätsprobleme; Microsoft antwortet

In den letzten Wochen stellten Benutzer einen Leistungsabfall der GPT-4-basierten Bing-Chat-KI fest. Diejenigen, die sich häufig mit dem von Bing Chat unterstützten Verfassen-Feld von Microsoft Edge beschäftigen, empfanden es als weniger hilfreich, da sie häufig Fragen aus dem Weg gingen oder bei der Abfrage nicht weiterhilften.

In einer Erklärung gegenüber Windows Latest bestätigten Beamte von Microsoft, dass das Unternehmen das Feedback aktiv beobachtet und plant, in naher Zukunft Änderungen vorzunehmen, um die Bedenken auszuräumen.

Viele haben Reddit genutzt, um ihre Erfahrungen zu teilen. Ein Benutzer erwähnte, dass das einst zuverlässige Compose-Tool in der Bing-Seitenleiste des Edge-Browsers in letzter Zeit nicht mehr so ​​gut funktionierte. Beim Versuch, kreative Inhalte in einen informativen Ton zu bringen oder sogar nach humorvollen Interpretationen fiktiver Charaktere zu fragen, lieferte die KI bizarre Ausreden.

Bing Chat KI
Qualitätsproblem beim Bing-Chat

Es deutete darauf hin, dass die Diskussion kreativer Themen auf eine bestimmte Weise als unangemessen angesehen werden könnte oder dass Humor problematisch sein könnte, selbst wenn das Thema so harmlos ist wie ein unbelebtes Objekt. Ein anderer Redditor teilte seine Erfahrungen mit Bing beim Korrekturlesen von E-Mails in einer Nicht-Muttersprache.

Anstatt die Frage normalerweise zu beantworten, präsentierte Bing eine Liste alternativer Tools und wirkte fast abweisend, indem er dem Benutzer riet, „es herauszufinden“. Nachdem die KI jedoch ihre Frustration durch Ablehnungen und erneute Versuche zum Ausdruck gebracht hatte, kehrte sie zu ihrem hilfsbereiten Selbst zurück.

„Ich habe mich beim Korrekturlesen von E-Mails, die ich in meiner dritten Sprache verfasst habe, auf Bing verlassen. Aber gerade heute hat es mich, anstatt zu helfen, auf eine Liste anderer Tools verwiesen und mir im Wesentlichen gesagt, ich solle es selbst herausfinden. Als ich reagierte, indem ich alle seine Antworten ablehnte und eine neue Konversation initiierte, kam es schließlich dem Wunsch nach“, bemerkte der Benutzer in einem Reddit-Beitrag.

Trotz dieser Bedenken hat Microsoft Schritte unternommen, um die Situation anzugehen. In einer Erklärung gegenüber Windows Latest bestätigte der Sprecher des Unternehmens, dass man stets auf das Feedback der Tester achtet und dass Benutzer in Zukunft mit besseren Erfahrungen rechnen können.

„Wir überwachen aktiv das Feedback der Benutzer und die gemeldeten Bedenken. Wenn wir durch die Vorschau mehr Erkenntnisse gewinnen, können wir diese Erkenntnisse nutzen, um das Erlebnis im Laufe der Zeit weiter zu verbessern“, teilte mir ein Microsoft-Sprecher per E-Mail mit.

Vor diesem Hintergrund ist unter Benutzern die Theorie aufgetaucht, dass Microsoft möglicherweise die Einstellungen hinter den Kulissen optimiert.

Ein Benutzer bemerkte: „Es ist schwer, dieses Verhalten zu verstehen. Im Kern ist die KI einfach ein Werkzeug. Unabhängig davon, ob Sie einen Zungenbrecher erzeugen oder sich für die Veröffentlichung oder Löschung von Inhalten entscheiden, liegt die Verantwortung bei Ihnen. Es ist verwirrend zu glauben, dass Bing beleidigend sein könnte oder nicht. Ich glaube, dass dieses Missverständnis zu Missverständnissen führt, insbesondere bei KI-Skeptikern, die die KI dann als wesenlos betrachten, fast so, als ob die KI selbst der Ersteller von Inhalten wäre.“

Die Community hat ihre eigenen Theorien, aber Microsoft hat bestätigt, dass es weiterhin Änderungen vornehmen wird, um das Gesamterlebnis zu verbessern.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert