Bing Chat AI impulsado por GPT-4 enfrenta problemas de calidad; microsoft responde

Bing Chat AI impulsado por GPT-4 enfrenta problemas de calidad; microsoft responde

En las últimas semanas, los usuarios han notado una disminución en el rendimiento de Bing Chat AI con tecnología GPT-4. Aquellos que interactúan con frecuencia con el cuadro Redactar de Microsoft Edge, con tecnología de Bing Chat, lo han encontrado menos útil, a menudo evitando preguntas o no ayudando con la consulta.

En una declaración a Windows Latest, los funcionarios de Microsoft confirmaron que la compañía está monitoreando activamente los comentarios y planea realizar cambios para abordar las preocupaciones en el futuro cercano.

Muchos han recurrido a Reddit para compartir sus experiencias. Un usuario mencionó cómo la herramienta Redactar que alguna vez fue confiable en la barra lateral de Bing del navegador Edge ha sido últimamente menos que estelar. Al tratar de obtener contenido creativo en un tono informativo o incluso pedir versiones humorísticas de personajes ficticios, la IA proporcionó excusas extrañas.

IA de chat de Bing
Problema de calidad de Bing Chat

Sugirió que discutir temas creativos de cierta manera podría considerarse inapropiado o que el humor podría ser problemático, incluso si el tema es tan inofensivo como un objeto inanimado. Otro usuario de Reddit compartió su experiencia con Bing para corregir correos electrónicos en un idioma no nativo.

En lugar de responder a la pregunta por lo general, Bing presentó una lista de herramientas alternativas y pareció casi desdeñoso, aconsejando al usuario que ‘resolviera’. Sin embargo, después de mostrar su frustración a través de los votos negativos y volver a intentarlo, la IA volvió a ser útil.

“He confiado en Bing para revisar los correos electrónicos que redacto en mi tercer idioma. Pero justo hoy, en lugar de ayudarme, me dirigió a una lista de otras herramientas, esencialmente diciéndome que lo descubra por mi cuenta. Cuando respondí rechazando todas sus respuestas e iniciando una nueva conversación, finalmente accedió”, señaló el usuario en una publicación de Reddit.

En medio de estas preocupaciones, Microsoft ha dado un paso al frente para abordar la situación. En una declaración a Windows Latest, el portavoz de la compañía confirmó que siempre está pendiente de los comentarios de los probadores y que los usuarios pueden esperar mejores experiencias en el futuro.

“Supervisamos activamente los comentarios de los usuarios y las inquietudes informadas, y a medida que obtengamos más información a través de la vista previa, podremos aplicar esos aprendizajes para mejorar aún más la experiencia con el tiempo”, me dijo un portavoz de Microsoft por correo electrónico.

En medio de esto, ha surgido una teoría entre los usuarios de que Microsoft podría estar modificando la configuración detrás de escena.

Un usuario comentó: “Es difícil comprender este comportamiento. En esencia, la IA es simplemente una herramienta. Ya sea que cree un trabalenguas o decida publicar o eliminar contenido, la responsabilidad recae en usted. Es desconcertante pensar que Bing podría ser ofensivo o no. Creo que este malentendido conduce a conceptos erróneos, especialmente entre los escépticos de la IA, quienes ven a la IA como carente de esencia, casi como si la IA misma fuera la creadora del contenido”.

La comunidad tiene sus propias teorías, pero Microsoft ha confirmado que seguirá realizando cambios para mejorar la experiencia general.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *