NVIDIA의 ACE는 Windows에서 게임을 하는 방식을 혁신할 것입니다.
아직은 잘 아시겠지만 어제 대만에서 열린 Computex의 기조연설에서 NVIDIA의 CEO인 Jensen Huang은 게임 개발자를 위한 새로운 기술을 선보였습니다.
그리고 네, 이 새로운 기술은 AI와 클라우드 서버를 사용하는 것과 관련이 있으며, 이는 회사의 새로운 큰 초점이 되었습니다.
아직 아무것도 망치지 않고 이 새로운 기술이 실제로 Microsoft의 Chat GPT 및 Google의 BARD AI 소프트웨어 를 사용할 것이라는 점만 알아두십시오 .
NPC 상호 작용이 점점 더 현실화됩니다.
이 새로운 기술을 게임용 NVIDIA ACE(Avatar Cloud Engine) 라고 합니다 . 이름처럼 가장 짧은 이름은 아니지만 약어를 사용할 수 있습니다.
실제로 개발자는 플레이어 캐릭터와 실시간으로 대화할 수 있지만 스크립트가 없고 ChatGPT, Bing Chat 및 Bard와 유사한 AI 챗봇으로 구동되는 대화를 통해 NPC를 배치할 수 있습니다.
또한 NPC 얼굴 애니메이션이 대본이 없는 대화와 일치하도록 허용됩니다. 2023년 기술은 어떻습니까?
이를 통해 NeMo 모델 정렬 기술을 통해 NPC에 생명을 불어넣을 수 있습니다. 첫째, 기본 언어 모델이 지침에 따라 역할극 작업을 수행할 수 있도록 동작 복제를 사용합니다.
NPC의 행동을 기대에 더 잘 맞추기 위해 앞으로 인간 피드백에서 강화 학습(RLHF)을 적용하여 개발 프로세스 중에 디자이너로부터 실시간 피드백을 받을 수 있습니다.
이 회사는 또한 이러한 AI NPC가 NeMo Guardrails에 의해 제어되어 게이머에게 이상하거나 공격적인 말을 하지 않도록 할 것이라고 밝혔습니다.
위에서 볼 수 있듯이 NVIDIA는 YouTube에 게시된 ACE의 간략한 데모를 선보였습니다. 레이 트레이싱이 활성화된 Unreal Engine 5와 NPC 캐릭터 모델용 MetaHuman 기술로 제작되었습니다.
NVIDIA는 또한 게임에서 AI 캐릭터를 만드는 Convai라는 스타트업 회사의 기술을 사용했습니다.
Convai는 음성-텍스트 및 텍스트-음성 변환 기능을 위해 NVIDIA Riva를, 대화를 주도하는 LLM을 위해 NVIDIA NeMo를, 음성 입력에서 AI 기반 얼굴 애니메이션을 위해 Audio2Face를 사용했다는 점을 기억하세요.
데모에 표시된 AI NPC는 확실히 완벽하지 않습니다. 그의 말투는 매우 부자연스러워 보였고, 감히 말하건대 본질적으로 인공적이었습니다.
즉, 앞으로 몇 달, 몇 년 동안 말하기 패턴이 개선되고 더 자연스러워질 가능성이 높습니다.
그러나 NVIDIA는 게임 개발자가 ACE for Games를 언제 사용할 수 있는지 명시하지 않았으므로 너무 앞서 나가지 마십시오.
얼굴 애니메이션을 게임 캐릭터의 말과 일치시키는 Audio2Face 기술은 곧 출시될 두 게임, 즉 3인칭 공상과학 게임인 Fort Solis와 오랫동안 기다려온 포스트 아포칼립스 FPS 속편 STALKER 2: Heart of Chornobyl에 사용되고 있습니다.
NVIDIA의 최근 소식에 대해 어떻게 생각하십니까? 아래 의견 섹션에서 의견을 공유하십시오.
답글 남기기