ACE de NVIDIA revolucionará la forma de jugar en Windows
Es posible que ya lo sepa, pero durante el discurso de apertura de ayer en Computex en Taiwán, el director ejecutivo de NVIDIA, Jensen Huang, mostró una nueva tecnología para los desarrolladores de juegos.
Y sí, esta nueva tecnología implica el uso de IA y servidores en la nube, que se ha convertido en el nuevo gran enfoque de la empresa.
Sin estropear nada todavía, solo sepa que esta nueva tecnología realmente utilizará Chat GPT de Microsoft y el software BARD AI de Google .
Las interacciones de NPC serán cada vez más reales
Esta nueva tecnología se llama NVIDIA ACE (Avatar Cloud Engine) para juegos. No es el más corto de los nombres, pero puedes usar el acrónimo.
En verdad, permitirá a los desarrolladores colocar NPC que puedan hablar con los personajes de los jugadores en tiempo real, pero con un diálogo sin guiones y alimentado por chatbots de IA similares a ChatGPT, Bing Chat y Bard.
Además, también se le permitirá que las animaciones faciales de NPC coincidan con el diálogo sin guión. ¿Cómo es eso para una tecnología de 2023?
Con él, puedes dar vida a los NPC a través de las técnicas de alineación del modelo NeMo. Primero, emplee la clonación de comportamiento para permitir que el modelo de lenguaje base realice tareas de juego de roles de acuerdo con las instrucciones.
Para alinear aún más el comportamiento del NPC con las expectativas, en el futuro, puede aplicar el aprendizaje reforzado a partir de comentarios humanos (RLHF) para recibir comentarios en tiempo real de los diseñadores durante el proceso de desarrollo.
La compañía también declaró que estos AI NPC están controlados por NeMo Guardrails, lo que con suerte evitará que digan cosas raras o incluso ofensivas a los jugadores.
Como puede ver arriba, NVIDIA mostró una breve demostración de ACE que se publicó en YouTube. Fue creado en Unreal Engine 5 con trazado de rayos habilitado y tecnología MetaHuman para modelos de personajes NPC.
NVIDIA también usó tecnología de una empresa nueva llamada Convai que está creando personajes de IA en juegos.
Tenga en cuenta que Convai usó NVIDIA Riva para las capacidades de conversión de voz a texto y de texto a voz, NVIDIA NeMo para el LLM que impulsa la conversación y Audio2Face para la animación facial impulsada por IA a partir de entradas de voz.
El AI NPC que se muestra en la demostración definitivamente no es perfecto. Su forma de hablar parecía muy forzada y, nos atreveríamos a decir, de naturaleza artificial.
Dicho esto, es más que probable que los patrones del habla mejoren y se vuelvan más naturales en los próximos meses y años.
Sin embargo, NVIDIA no indicó cuándo estará disponible ACE for Games para los desarrolladores de juegos, así que no nos adelantemos demasiado.
La tecnología Audio2Face, que hace coincidir la animación facial con el habla de un personaje del juego, se está utilizando en dos próximos juegos: el juego de ciencia ficción en tercera persona Fort Solis y la tan esperada secuela post-apocalíptica FPS STALKER 2: Heart of Chernobyl.
¿Qué piensas sobre estas noticias recientes de NVIDIA? Comparta sus opiniones con nosotros en la sección de comentarios a continuación.
Deja una respuesta