La IA de Bing de Microsoft se volvió más tonta con frecuentes indicaciones de «pasemos a un nuevo tema»

La IA de Bing de Microsoft se volvió más tonta con frecuentes indicaciones de «pasemos a un nuevo tema»

Según nuestras pruebas, Microsoft ha realizado varios cambios en Bing AI, y está muy simplificado después de las actualizaciones recientes del lado del servidor. Estos cambios se realizaron luego de que periodistas y usuarios pudieran acceder a modos secretos, asistentes personales y el lado emocional de Bing Chat.

En algunos casos, Bing también compartió información interna, como su nombre en clave y cómo tiene acceso a los datos de Microsoft. En una publicación de blog, Microsoft confirmó que realizó un cambio notable en Bing «basado en los comentarios de todos ustedes». No estaba claro qué cambios se hicieron, pero finalmente vemos el impacto.

En nuestras pruebas, observamos que Microsoft desactivó varias funciones de Bing Chat, incluida su capacidad para crear cuestionarios. Bing pudo crear cuestionarios compatibles con formularios de Google antes de la actualización, pero ahora la IA se niega a actuar, ya que la creación de cuestionarios está más allá de su «capacidad».

Conversación de chat de Bing
Imagen cortesía: WindowsLatest.com

Para comprender mejor lo que sucede con Bing, le preguntamos a Mikhail Parakhin, director ejecutivo de publicidad y servicios web de Microsoft. Dijeron: “Esto parece ser un efecto secundario de las respuestas concisas, definitivamente no a propósito. Se lo haré saber al equipo: lo agregaremos como caso de prueba”.

Muchos usuarios han observado que la personalidad de Bing ahora es mucho más débil y, a menudo, le da el mensaje genérico «pasemos a un nuevo tema». Este mensaje lo obliga a cerrar el chat o iniciar un nuevo tema. Se niega a ayudar con preguntas o proporcionar enlaces a estudios y no responde preguntas directamente.

Suponga que no está de acuerdo con Bing en una larga discusión/conversación. En ese caso, AI prefiere no continuar con esta conversación ya que todavía está “aprendiendo” y agradecería la “comprensión y paciencia” de los usuarios.

Bing Chat solía ser fantástico, pero parece tonto después de una serie de incidentes.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *