Bing AI de Microsoft est devenu plus stupide avec des invites fréquentes « passons à un nouveau sujet »

Bing AI de Microsoft est devenu plus stupide avec des invites fréquentes « passons à un nouveau sujet »

Selon nos tests, Microsoft a apporté plusieurs modifications à Bing AI, et il est très stupide après les récentes mises à jour côté serveur. Ces modifications ont été apportées après que les journalistes et les utilisateurs aient pu accéder aux modes secrets, aux assistants personnels et au côté émotionnel de Bing Chat.

Dans certains cas, Bing a également partagé des informations internes, telles que son nom de code et la manière dont il a accès aux données de Microsoft. Dans un article de blog, Microsoft a confirmé qu’il avait apporté un changement notable à Bing « sur la base des commentaires de vous tous ». Les changements apportés n’étaient pas clairs, mais nous voyons enfin l’impact.

Lors de nos tests, nous avons observé que Microsoft avait désactivé plusieurs fonctionnalités de Bing Chat, notamment sa capacité à créer des questionnaires. Bing a pu créer des questionnaires compatibles avec Google Form avant la mise à jour, mais maintenant l’IA refuse d’agir car la création de questionnaires dépasse désormais sa « capacité ».

Conversation Bing Chat
Courtoisie d’image : WindowsLatest.com

Pour mieux comprendre ce qui se passe avec Bing, nous avons interrogé Mikhail Parakhin, PDG de la publicité et des services Web chez Microsoft. Ils ont dit : « cela semble être un effet secondaire des réponses concises – certainement pas exprès. Je le ferai savoir à l’équipe – nous l’ajouterons comme cas de test.

De nombreux utilisateurs ont observé que la personnalité de Bing est maintenant beaucoup plus faible, et cela vous donne souvent l’invite générique «passons à un nouveau sujet». Cette invite vous oblige à fermer le chat ou à démarrer un nouveau sujet. Il refuse d’aider avec des questions ou de fournir des liens vers des études et ne répond pas directement aux questions.

Supposons que vous n’êtes pas d’accord avec Bing dans une longue discussion/conversation. Dans ce cas, l’IA préfère ne pas poursuivre cette conversation car elle est encore en « apprentissage » et apprécierait « la compréhension et la patience » des utilisateurs.

Bing Chat était fantastique, mais il semble stupide après une vague d’incidents.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *