NVIDIAs ACE wird die Art und Weise, wie Sie Spiele unter Windows spielen, revolutionieren

NVIDIAs ACE wird die Art und Weise, wie Sie Spiele unter Windows spielen, revolutionieren

Sie wissen es vielleicht schon, aber während der gestrigen Keynote auf der Computex in Taiwan stellte NVIDIAs CEO Jensen Huang eine neue Technologie für Spieleentwickler vor.

Und ja, diese neue Technologie beinhaltet den Einsatz von KI und Cloud-Servern, was zum großen neuen Schwerpunkt des Unternehmens geworden ist.

Ohne jetzt etwas zu verraten, seien Sie sich darüber im Klaren, dass diese neue Technologie tatsächlich Microsofts Chat GPT und Googles BARD AI-Software nutzen wird .

NPC-Interaktionen werden immer realer

Diese neue Technologie heißt NVIDIA ACE (Avatar Cloud Engine) für Spiele. Es handelt sich zwar nicht um den kürzesten Namen, aber Sie können einfach das Akronym verwenden.

Tatsächlich wird es Entwicklern ermöglichen, NPCs einzusetzen, die in Echtzeit mit Spielercharakteren sprechen können, jedoch mit Dialogen, die nicht geskriptet sind und von KI-Chatbots wie ChatGPT, Bing Chat und Bard unterstützt werden.

Darüber hinaus können Sie auch die NPC-Gesichtsanimationen an die nicht geskripteten Dialoge anpassen. Wie sieht es mit einigen Technologien für 2023 aus?

Damit können Sie NPCs mithilfe von NeMo-Modellausrichtungstechniken Leben einhauchen. Nutzen Sie zunächst das Verhaltensklonen, um dem Basissprachmodell die Ausführung von Rollenspielaufgaben entsprechend den Anweisungen zu ermöglichen.

Um das Verhalten des NPCs weiter an den Erwartungen auszurichten, können Sie in Zukunft Verstärkungslernen aus menschlichem Feedback (RLHF) anwenden, um während des Entwicklungsprozesses Echtzeit-Feedback von Designern zu erhalten.

Das Unternehmen gab außerdem an, dass diese KI-NPCs von NeMo Guardrails kontrolliert werden, was sie hoffentlich davon abhält, den Spielern seltsame oder sogar beleidigende Dinge zu sagen.

Wie Sie oben sehen können, hat NVIDIA eine kurze Demo von ACE gezeigt, die auf YouTube gepostet wurde. Es wurde in Unreal Engine 5 mit aktiviertem Raytracing und MetaHuman-Technologie für NPC-Charaktermodelle erstellt.

NVIDIA nutzte auch Technologie eines Startup-Unternehmens namens Convai, das KI-Charaktere in Spielen erstellt.

Bedenken Sie, dass Convai NVIDIA Riva für Speech-to-Text- und Text-to-Speech-Funktionen, NVIDIA NeMo für das LLM, das die Konversation steuert, und Audio2Face für KI-gestützte Gesichtsanimationen aus Spracheingaben verwendet hat.

Der in der Demo gezeigte KI-NPC ist definitiv nicht perfekt. Sein Sprachstil schien sehr gestelzt und, wir dürfen sagen, künstlich zu sein.

Dennoch ist es mehr als wahrscheinlich, dass sich die Sprachmuster in den kommenden Monaten und Jahren verbessern und natürlicher werden.

Allerdings hat NVIDIA nicht bekannt gegeben, wann ACE for Games für Spieleentwickler verfügbar sein wird, wir sollten uns also nicht zu sehr voreilen.

Die Audio2Face-Technologie, die die Gesichtsanimation an die Sprache einer Spielfigur anpasst, wird in zwei kommenden Spielen eingesetzt: dem Third-Person-Science-Fiction-Spiel Fort Solis und der lang erwarteten postapokalyptischen FPS-Fortsetzung STALKER 2: Heart of Chornobyl.

Was denken Sie über diese aktuellen Nachrichten von NVIDIA? Teilen Sie uns Ihre Meinung im Kommentarbereich unten mit.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert