Die Bing-KI von Microsoft ist mit den häufigen Aufforderungen „Wechseln wir zu einem neuen Thema“ nur noch dümmer geworden

Die Bing-KI von Microsoft ist mit den häufigen Aufforderungen „Wechseln wir zu einem neuen Thema“ nur noch dümmer geworden

Unseren Tests zufolge hat Microsoft mehrere Änderungen an Bing AI vorgenommen, und es ist nach den letzten serverseitigen Updates sehr heruntergekommen. Diese Änderungen wurden vorgenommen, nachdem Journalisten und Benutzer auf geheime Modi, persönliche Assistenten und die emotionale Seite von Bing Chat zugreifen konnten.

In einigen Fällen teilte Bing auch interne Informationen mit, beispielsweise seinen Codenamen und wie es Zugriff auf die Daten von Microsoft hat. In einem Blogbeitrag bestätigte Microsoft, dass es eine bemerkenswerte Änderung an Bing „basierend auf dem Feedback von Ihnen allen“ vorgenommen hat. Welche Änderungen vorgenommen wurden, war unklar, aber wir sehen endlich die Auswirkungen.

In unseren Tests haben wir festgestellt, dass Microsoft mehrere Bing-Chat-Funktionen deaktiviert hat, einschließlich der Möglichkeit, Fragebögen zu erstellen. Bing konnte vor dem Update Google-Formular-freundliche Fragebögen erstellen, aber jetzt weigert sich die KI, zu handeln, da das Erstellen von Fragebögen jetzt ihre „Fähigkeit“ übersteigt.

Bing-Chat-Gespräch
Bild mit freundlicher Genehmigung: WindowsLatest.com

Um besser zu verstehen, was mit Bing passiert, haben wir Mikhail Parakhin, CEO von Advertising and Web Services bei Microsoft, gefragt. Sie sagten: „Dies scheint ein Nebeneffekt prägnanter Antworten zu sein – definitiv keine Absicht. Ich werde das Team informieren – wir werden es als Testfall hinzufügen.“

Viele Benutzer haben beobachtet, dass die Persönlichkeit von Bing jetzt viel schwächer ist, und es gibt Ihnen oft die generische Aufforderung „Lass uns zu einem neuen Thema übergehen“. Diese Aufforderung zwingt Sie, den Chat zu schließen oder ein neues Thema zu beginnen. Es weigert sich, bei Fragen zu helfen oder Links zu Studien bereitzustellen, und beantwortet Fragen nicht direkt.

Angenommen, Sie sind mit Bing in einem längeren Streit/Gespräch nicht einverstanden. In diesem Fall zieht es die KI vor, diese Konversation nicht fortzusetzen, da sie noch „lernt“ und das „Verständnis und die Geduld“ der Benutzer zu schätzen weiß.

Bing Chat war früher fantastisch, aber nach einer Flut des Vorfalls scheint es verdummt zu sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert