NVIDIA の ACE は Windows でのゲームのプレイ方法に革命をもたらします
もうご存知かもしれませんが、台湾の Computex での昨日の基調講演で、NVIDIA の CEO、ジェンスン ファンはゲーム開発者向けの新しいテクノロジーを披露しました。
そしてそうです、この新しい技術には AI とクラウド サーバーの使用が含まれており、これが同社の新たな大きな焦点となっています。
まだ何もネタバレするつもりはありませんが、この新しい技術が実際に Microsoft のChat GPTと Google のBARD AI ソフトウェアを利用するということだけは知っておいてください。
NPCのやり取りがますますリアルになる
この新しいテクノロジーは、ゲーム用NVIDIA ACE (Avatar Cloud Engine)と呼ばれます。これは名前の中でも最も短い名前ではありませんが、単に頭字語を使用することができます。
実際、これにより開発者はプレイヤー キャラクターとリアルタイムで会話できる NPC を導入できるようになりますが、会話はスクリプト化されておらず、ChatGPT、Bing Chat、Bard に似た AI チャットボットを利用しています。
さらに、NPC の顔のアニメーションをスクリプト以外のダイアログと一致させることもできます。2023 年のテクノロジーについてはどうですか?
これを使用すると、NeMo モデル調整テクニックを通じて NPC に命を吹き込むことができます。まず、動作の複製を使用して、基本言語モデルが指示に従ってロールプレイング タスクを実行できるようにします。
NPC の動作を期待とさらに一致させるために、将来的には人間のフィードバックからの強化学習 (RLHF) を適用して、開発プロセス中にデザイナーからリアルタイムのフィードバックを受け取ることができます。
同社はまた、これらの AI NPC は NeMo ガードレールによって制御されており、ゲーマーに対して奇妙なことや攻撃的なことを言わないようにすることが期待されると述べています。
上で見られるように、NVIDIA は YouTube に投稿された ACE の簡単なデモを披露しました。これは、レイ トレーシングが有効になり、NPC キャラクター モデル用の MetaHuman テクノロジーを使用して Unreal Engine 5 で作成されました。
NVIDIA は、ゲーム内で AI キャラクターを作成する Convai という新興企業のテクノロジーも使用しました。
Convai は、音声合成およびテキスト読み上げ機能に NVIDIA Riva を、会話を促進する LLM に NVIDIA NeMo を、音声入力からの AI を活用した顔のアニメーションに Audio2Face を使用したことに留意してください。
デモで示された AI NPC は決して完璧ではありません。彼のスピーチパターンは非常に堅苦しく、あえて言えば本質的に人工的であるように見えました。
そうは言っても、今後数か月、数年のうちに音声パターンが改善され、より自然になる可能性は十分にあります。
ただし、NVIDIA は ACE for Games がゲーム開発者にいつ提供されるかについては明らかにしていないため、先走りしすぎないようにしましょう。
顔のアニメーションとゲーム キャラクターの音声を一致させる Audio2Face テクノロジーは、今後 2 つのゲームで使用されます。三人称視点の SF ゲーム Fort Solis と、待望の黙示録的な FPS 続編 STALKER 2: Heart of Chornobyl です。
NVIDIA からのこの最近のニュースについてどう思いますか? 以下のコメントセクションでご意見をお聞かせください。
コメントを残す