Bing Chat AI alimentado por GPT-4 enfrenta problemas de qualidade; Microsoft responde

Bing Chat AI alimentado por GPT-4 enfrenta problemas de qualidade; Microsoft responde

Nas últimas semanas, os usuários notaram um declínio no desempenho do Bing Chat AI com tecnologia GPT-4. Aqueles que frequentemente se envolvem com a caixa de composição do Microsoft Edge, desenvolvida pelo Bing Chat, a consideram menos útil, muitas vezes evitando perguntas ou falhando em ajudar com a consulta.

Em uma declaração ao Windows Latest, os funcionários da Microsoft confirmaram que a empresa está monitorando ativamente o feedback e planeja fazer alterações para resolver as preocupações em um futuro próximo.

Muitos foram ao Reddit para compartilhar suas experiências. Um usuário mencionou como a outrora confiável ferramenta Compose na barra lateral Bing do navegador Edge ultimamente tem sido menos do que estelar. Ao tentar obter conteúdo criativo em tom informativo ou até mesmo pedir interpretações humorísticas de personagens fictícios, a IA fornecia desculpas bizarras.

IA de bate-papo do Bing
Problema de qualidade do Bing Chat

Sugeriu que discutir tópicos criativos de uma certa maneira pode ser considerado inapropriado ou que o humor pode ser problemático, mesmo que o assunto seja tão inofensivo quanto um objeto inanimado. Outro Redditor compartilhou sua experiência com o Bing para revisar e-mails em um idioma não nativo.

Em vez de responder normalmente à pergunta, o Bing apresentou uma lista de ferramentas alternativas e pareceu quase desdenhoso, aconselhando o usuário a “descobrir”. No entanto, depois de mostrar sua frustração por meio de votos negativos e tentar novamente, a IA voltou ao normal.

“Tenho confiado no Bing para revisar e-mails que rascunho em meu terceiro idioma. Mas apenas hoje, em vez de ajudar, ele me direcionou para uma lista de outras ferramentas, basicamente me dizendo para descobrir por conta própria. Quando respondi votando negativamente em todas as suas respostas e iniciando uma nova conversa, finalmente obriguei ”, observou o usuário em um post do Reddit.

Em meio a essas preocupações, a Microsoft deu um passo à frente para resolver a situação. Em uma declaração ao Windows Latest, o porta-voz da empresa confirmou que está sempre observando o feedback dos testadores e que os usuários podem esperar melhores experiências futuras.

“Monitoramos ativamente o feedback do usuário e as preocupações relatadas e, à medida que obtemos mais informações por meio da visualização, poderemos aplicar esses aprendizados para melhorar ainda mais a experiência ao longo do tempo”, disse um porta-voz da Microsoft por e-mail.

Em meio a isso, surgiu uma teoria entre os usuários de que a Microsoft pode estar ajustando as configurações nos bastidores.

Um usuário comentou: “É difícil entender esse comportamento. Em sua essência, a IA é simplesmente uma ferramenta. Quer você crie um trava-língua ou decida publicar ou excluir conteúdo, o ônus recai sobre você. É desconcertante pensar que o Bing pode ser ofensivo ou não. Acredito que esse mal-entendido leva a equívocos, especialmente entre os céticos da IA, que veem a IA como sendo desprovida de essência, quase como se a própria IA fosse a criadora do conteúdo”.

A comunidade tem suas próprias teorias, mas a Microsoft confirmou que continuará fazendo alterações para melhorar a experiência geral.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *