OpenAI teme que la gente pueda apegarse emocionalmente al modo de voz de ChatGPT
Qué saber
- El informe de la tarjeta del sistema de GPT-4o describe los temores de OpenAI sobre que las personas se vuelvan emocionalmente dependientes del modo de voz de ChatGPT.
- Las voces en el modo de voz de ChatGPT son muy realistas y dan la ilusión de que el usuario está hablando con una persona.
- El informe destaca que el modo de voz podría ayudar a algunas personas mientras que afecta a otras que dependen ampliamente de él o confían excesivamente en sus respuestas.
El modo de voz avanzado de ChatGPT generó revuelo cuando se anunció por primera vez. Pero según un informe de seguridad reciente , OpenAI ya teme que su modo de voz avanzado, que suena inquietantemente como una voz humana, podría hacer que los usuarios se vuelvan emocionalmente adictos al chatbot de IA.
El modo de voz avanzado ha sido una de las funciones más esperadas de ChatGPT. Puede mantener conversaciones en tiempo real, hacer sonidos humanos como «Umm», «Ah» y otras interjecciones mientras habla, imitar sonidos, cantar canciones e incluso determinar su estado emocional en función de su tono de voz. En pocas palabras, es el asistente de inteligencia artificial más realista que existe. Pero al ser una función tan poderosa y capaz, el modo de voz de ChatGPT tiene un alto potencial de mal uso.
OpenAI mencionó en su informe:
“Durante las primeras pruebas… observamos que los usuarios utilizaban un lenguaje que podría indicar que estaban formando conexiones con el modelo. Por ejemplo, esto incluye un lenguaje que expresa vínculos compartidos, como “Este es nuestro último día juntos”.
El modo de voz también abre nuevas formas para que las personas puedan «liberar» ChatGPT y hacer todo tipo de cosas, incluso hacerse pasar por otras personas. Ser un conversador con apariencia humana también podría hacer que las personas confíen más en los chatbots de IA, incluso cuando su resultado esté plagado de errores y alucinaciones.
La interacción con el modo de voz de ChatGPT podría beneficiar a las “personas solitarias” y ayudar a algunas a superar su miedo a las interacciones sociales. Pero su uso extensivo también podría afectar las relaciones saludables y justifica estudios adicionales, señala OpenAI en su informe.
Aunque el informe indica una creciente transparencia por parte de OpenAI, todavía no es tan abierta con respecto a sus datos de entrenamiento. Es cierto que los temores de OpenAI sobre lo que podría generar el uso extensivo de su modo de voz no son infundados, pero la dependencia excesiva de la tecnología es inherente a la mayoría de los dispositivos tecnológicos. Y, como parece sacado de una película, no es difícil ver qué puede deparar el futuro al modo de voz y cómo interactúan los usuarios con él.
Incluso en el evento de demostración, el modo de voz se consideró un poco demasiado coqueto. Debido al parecido de su voz de Sky con la de Scarlett Johansson y la controversia que se desató, es difícil no recordar la película Her y los riesgos que conlleva la antropomorfización de los modelos de IA.
Deja una respuesta