Bing Chat AI optimisé par GPT-4 fait face à des problèmes de qualité ; Microsoft répond

Bing Chat AI optimisé par GPT-4 fait face à des problèmes de qualité ; Microsoft répond

Au cours des dernières semaines, les utilisateurs ont remarqué une baisse des performances de Bing Chat AI alimenté par GPT-4. Ceux qui interagissent fréquemment avec la boîte de composition de Microsoft Edge, optimisée par Bing Chat, l’ont trouvée moins utile, évitant souvent les questions ou ne répondant pas à la requête.

Dans une déclaration à Windows Latest, les responsables de Microsoft ont confirmé que la société surveillait activement les commentaires et prévoyait d’apporter des modifications pour répondre aux préoccupations dans un proche avenir.

Beaucoup se sont tournés vers Reddit pour partager leurs expériences. Un utilisateur a mentionné que l’outil Compose autrefois fiable dans la barre latérale Bing du navigateur Edge a récemment été moins que stellaire. En essayant d’obtenir un contenu créatif sur un ton informatif ou même en demandant des prises de vue humoristiques sur des personnages fictifs, l’IA a fourni des excuses bizarres.

Bing Chat IA
Problème de qualité de Bing Chat

Il a suggéré que discuter de sujets créatifs d’une certaine manière pourrait être jugé inapproprié ou que l’humour pourrait être problématique, même si le sujet est aussi inoffensif qu’un objet inanimé. Un autre Redditor a partagé son expérience avec Bing pour la relecture des e-mails dans une langue non native.

Au lieu de répondre habituellement à la question, Bing a présenté une liste d’outils alternatifs et a semblé presque dédaigneux, conseillant à l’utilisateur de « comprendre ». Cependant, après avoir montré leur frustration à travers des votes négatifs et réessayé, l’IA est revenue à elle-même.

“Je compte sur Bing pour relire les e-mails que je rédige dans ma troisième langue. Mais juste aujourd’hui, au lieu d’aider, il m’a dirigé vers une liste d’autres outils, me disant essentiellement de le découvrir par moi-même. Lorsque j’ai répondu en votant contre toutes ses réponses et en lançant une nouvelle conversation, il a finalement été obligé », a noté l’utilisateur dans un article de Reddit.

Au milieu de ces préoccupations, Microsoft s’est avancé pour remédier à la situation. Dans une déclaration à Windows Latest, le porte-parole de la société a confirmé qu’il surveillait toujours les commentaires des testeurs et que les utilisateurs pouvaient s’attendre à de meilleures expériences futures.

« Nous surveillons activement les commentaires des utilisateurs et les préoccupations signalées, et à mesure que nous obtiendrons plus d’informations grâce à la prévisualisation, nous pourrons appliquer ces apprentissages pour améliorer encore l’expérience au fil du temps », m’a dit un porte-parole de Microsoft par e-mail.

Au milieu de cela, une théorie a émergé parmi les utilisateurs selon laquelle Microsoft pourrait peaufiner les paramètres dans les coulisses.

Un utilisateur a fait remarquer: «Il est difficile de comprendre ce comportement. À la base, l’IA est simplement un outil. Que vous créiez un virelangue ou que vous décidiez de publier ou de supprimer du contenu, la responsabilité vous incombe. Il est déconcertant de penser que Bing pourrait être offensant ou non. Je crois que ce malentendu conduit à des idées fausses, en particulier parmi les sceptiques de l’IA qui considèrent alors l’IA comme étant dépourvue d’essence, presque comme si l’IA elle-même était le créateur de contenu ».

La communauté a ses propres théories, mais Microsoft a confirmé qu’il continuerait à apporter des modifications pour améliorer l’expérience globale.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *