L’ACE de NVIDIA va révolutionner la façon dont vous jouez à des jeux sur Windows
Vous le savez peut-être déjà, mais lors du discours d’hier au Computex à Taiwan, le PDG de NVIDIA, Jensen Huang, a présenté une nouvelle technologie pour les développeurs de jeux.
Et oui, cette nouvelle technologie implique l’utilisation d’IA et de serveurs cloud, qui sont devenus le nouveau grand objectif de l’entreprise.
Sans rien gâcher pour l’instant, sachez simplement que cette nouvelle technologie utilisera en fait le logiciel Chat GPT de Microsoft et le logiciel BARD AI de Google .
Les interactions avec les PNJ deviendront de plus en plus réelles
Cette nouvelle technologie s’appelle NVIDIA ACE (Avatar Cloud Engine) for Games. Ce n’est pas le plus court des noms, comme les noms vont, mais vous pouvez simplement utiliser l’acronyme.
En vérité, cela permettra aux développeurs de mettre en place des PNJ qui peuvent parler aux personnages joueurs en temps réel, mais avec un dialogue non scénarisé et alimenté par des chatbots AI similaires à ChatGPT, Bing Chat et Bard.
De plus, vous serez également autorisé à faire correspondre les animations faciales des PNJ avec le dialogue non scénarisé. Comment est-ce pour une technologie 2023?
Avec lui, vous pouvez donner vie aux PNJ grâce aux techniques d’alignement de modèles NeMo. Tout d’abord, utilisez le clonage de comportement pour permettre au modèle de langage de base d’effectuer des tâches de jeu de rôle conformément aux instructions.
Pour aligner davantage le comportement du PNJ sur les attentes, à l’avenir, vous pourrez appliquer l’apprentissage par renforcement à partir de la rétroaction humaine (RLHF) pour recevoir des commentaires en temps réel des concepteurs pendant le processus de développement.
La société a également déclaré que ces PNJ IA sont contrôlés par NeMo Guardrails, ce qui, espérons-le, les empêchera de dire des choses étranges ou même offensantes aux joueurs.
Comme vous pouvez le voir ci-dessus, NVIDIA a présenté une brève démo d’ACE qui a été publiée sur YouTube. Il a été créé dans Unreal Engine 5 avec le lancer de rayons activé et la technologie MetaHuman pour les modèles de personnages NPC.
NVIDIA a également utilisé la technologie d’une startup appelée Convai qui crée des personnages IA dans les jeux.
Gardez à l’esprit que Convai a utilisé NVIDIA Riva pour les capacités de synthèse vocale et de synthèse vocale, NVIDIA NeMo pour le LLM qui pilote la conversation et Audio2Face pour l’animation faciale alimentée par l’IA à partir d’entrées vocales.
Le PNJ IA montré dans la démo n’est certainement pas parfait. Son discours semblait très guindé et, osons-nous dire, de nature artificielle.
Cela étant dit, il est plus que probable que les schémas d’élocution s’amélioreront et deviendront plus naturels dans les mois et les années à venir.
Cependant, NVIDIA n’a pas précisé quand ACE for Games sera disponible pour les développeurs de jeux, alors ne nous précipitons pas trop.
La technologie Audio2Face, qui associe l’animation faciale au discours d’un personnage du jeu, est utilisée dans deux jeux à venir : le jeu de science-fiction à la troisième personne Fort Solis et la suite post-apocalyptique tant attendue du FPS STALKER 2 : Heart of Chornobyl.
Que pensez-vous de ces dernières nouvelles de NVIDIA ? Partagez vos opinions avec nous dans la section des commentaires ci-dessous.
Laisser un commentaire