O Bing AI da Microsoft ficou mais burro com os prompts frequentes de “vamos passar para um novo tópico”
De acordo com nossos testes, a Microsoft fez várias alterações no Bing AI e está muito simplificado após as recentes atualizações do lado do servidor. Essas mudanças foram feitas depois que jornalistas e usuários puderam acessar modos secretos, assistentes pessoais e o lado emocional do Bing Chat.
Em alguns casos, o Bing também compartilhou informações internas, como seu codinome e como tem acesso aos dados da Microsoft. Em uma postagem no blog, a Microsoft confirmou que fez uma mudança notável no Bing “com base no feedback de todos vocês”. Não ficou claro quais mudanças foram feitas, mas finalmente vemos o impacto.
Em nossos testes, observamos que a Microsoft desativou vários recursos do Bing Chat, incluindo a capacidade de criar questionários. O Bing foi capaz de criar questionários compatíveis com o formulário do Google antes da atualização, mas agora a IA se recusa a agir, pois a criação de questionários está além de sua “capacidade”.
Para entender melhor o que está acontecendo com o Bing, perguntamos a Mikhail Parakhin, CEO de publicidade e serviços da Web da Microsoft. Eles disseram: “este parece ser um efeito colateral de respostas concisas – definitivamente não de propósito. Vou deixar a equipe saber – vamos adicioná-lo como um caso de teste.”
Muitos usuários observaram que a personalidade do Bing agora é muito mais fraca, e muitas vezes dá a você o prompt genérico “vamos passar para um novo tópico”. Este prompt força você a fechar o chat ou iniciar um novo tópico. Ele se recusa a ajudar com perguntas ou fornecer links para estudos e não responde perguntas diretamente.
Suponha que você discorde do Bing em uma longa discussão/conversa. Nesse caso, a IA prefere não continuar esta conversa, pois ainda está “aprendendo” e agradeceria a “compreensão e paciência” dos usuários.
O Bing Chat costumava ser fantástico, mas parece emburrecido depois de uma enxurrada de incidentes.
Deixe um comentário