NVIDIA ACE zrewolucjonizuje sposób grania w gry w systemie Windows
Być może już o tym wiecie, ale podczas wczorajszego przemówienia na targach Computex na Tajwanie dyrektor generalny firmy NVIDIA, Jensen Huang, zaprezentował nową technologię dla twórców gier.
I tak, ta nowa technologia obejmuje wykorzystanie sztucznej inteligencji i serwerów w chmurze, co stało się nowym, dużym celem firmy.
Nie psując jeszcze niczego, po prostu wiedz, że ta nowa technologia będzie faktycznie wykorzystywać oprogramowanie Chat GPT firmy Microsoft i oprogramowanie BARD AI firmy Google .
Interakcje NPC staną się coraz bardziej realne
Ta nowa technologia nazywa się NVIDIA ACE (Avatar Cloud Engine) dla gier. To nie jest najkrótsza nazwa, jak to się mówi, ale możesz po prostu użyć akronimu.
Prawdę mówiąc, pozwoli to programistom umieścić NPC, którzy mogą rozmawiać z postaciami graczy w czasie rzeczywistym, ale z dialogami, które nie są skryptowane i obsługiwane przez chatboty AI podobne do ChatGPT, Bing Chat i Bard.
Co więcej, będziesz mógł również dopasować animacje twarzy NPC do nieskryptowanych dialogów. Jak to jest w przypadku technologii z 2023 roku?
Dzięki niemu możesz ożywić NPC za pomocą technik dopasowania modelu NeMo. Po pierwsze, zastosuj klonowanie zachowań, aby umożliwić modelowi języka podstawowego wykonywanie zadań odgrywania ról zgodnie z instrukcjami.
Aby jeszcze bardziej dostosować zachowanie NPC do oczekiwań, w przyszłości można zastosować uczenie się wzmacniające na podstawie informacji zwrotnych od ludzi (RLHF), aby otrzymywać informacje zwrotne od projektantów w czasie rzeczywistym podczas procesu tworzenia.
Firma stwierdziła również, że ci NPC AI są kontrolowani przez NeMo Guardrails, co, miejmy nadzieję, powstrzyma ich od mówienia graczom dziwnych, a nawet obraźliwych rzeczy.
Jak widać powyżej, NVIDIA zaprezentowała krótką wersję demonstracyjną ACE, która została opublikowana na YouTube. Powstała w silniku Unreal Engine 5 z włączonym ray tracingiem i technologią MetaHuman dla modeli postaci NPC.
NVIDIA wykorzystała również technologię start-upu Convai, który tworzy postacie AI w grach.
Należy pamiętać, że firma Convai korzystała z technologii NVIDIA Riva do przetwarzania mowy na tekst i tekstu na mowę, NVIDIA NeMo do LLM, który napędza rozmowę, oraz Audio2Face do animacji twarzy opartej na sztucznej inteligencji na podstawie poleceń głosowych.
AI NPC pokazany w demie zdecydowanie nie jest doskonały. Jego sposób mówienia wydawał się bardzo sztywny i, ośmielamy się powiedzieć, sztuczny z natury.
Biorąc to pod uwagę, jest więcej niż prawdopodobne, że wzorce mowy ulegną poprawie i staną się bardziej naturalne w nadchodzących miesiącach i latach.
Jednak NVIDIA nie podała, kiedy ACE for Games będzie dostępne dla twórców gier, więc nie wyprzedzajmy się zbytnio.
Technologia Audio2Face, która dopasowuje animację twarzy do mowy postaci w grze, jest wykorzystywana w dwóch nadchodzących grach: trzecioosobowej grze science-fiction Fort Solis oraz długo oczekiwanej postapokaliptycznej kontynuacji gry FPS STALKER 2: Heart of Czarnobyl.
Co sądzisz o ostatnich wiadomościach od firmy NVIDIA? Podziel się z nami swoimi opiniami w sekcji komentarzy poniżej.
Dodaj komentarz