在周一的国际消费电子展(CES)上,Nvidia展示了其生成式AI技术驱动的NPC的最新进展,展示了玩家与计算机生成的角色之间的自动对话,这可能改变游戏制作的方式。Nvidia的Avatar Cloud Engine(ACE)技术结合了语音到文本识别、文本到语音响应、生成式AI面部动画和自动角色人设,以生成计算机创建的角色互动。
Nvidia在CES 2024的特别演讲中,由ACE高级产品经理Seth Schneider进行了技术演示。据Schneider介绍,演示解释了玩家的语音,将其转换为文本。然后,将文本输入云端的大型语言模型,以从NPC生成响应。响应文本输入到Omniverse Audio2Face,该技术同步生成的口头音频的嘴型,然后在游戏中呈现。
这个演示是对2023年Computex展示的技术的更新版本,该技术展示了一个角色与未来拉面店老板Jin交谈。Nvidia的新演示通过让Jin和另一个NPC Nova 进行AI生成的对话,可以在每次游戏中都是独特的来扩展此技术。
CES 2024的演示还展示了来自另一家名为Convai的公司的新技术,该技术让AI驱动的NPC不仅可以进行对话,还可以与环境中的物体互动。在新的演示中,当Schneider要求时,Jin拿出了一瓶酒。根据Convai分享的信息,具有环境意识的AI NPC将能够与场景中的碗、瓶子、灯和其他道具互动。
Nvidia表示,许多游戏开发者已经在使用其ACE生产服务,其中包括Audio2Face面部动画生成AI和Riva自动语音识别。Schneider将“顶级数字角色扮演游戏开发者”如《原神》的米哈游、网易游戏、腾讯和育碧等列为正在为其产品制作AI驱动的NPC的公司。
目前尚不清楚哪些游戏将整合这类AI生成的NPC,但Nvidia和Convai宣称这项技术将“无缝”集成到像Unreal Engine和Unity等游戏引擎中。目前尚不清楚实际输出是否令人满意,或者像Jin和Nova的对话一样,显得令人不安和不自然。尽管输出几乎可以让人信服,但这两个角色在各自的表达中听起来都很机械和奇怪。
Nvidia新演示几乎可以肯定的一点是,我们将在未来的游戏中经历的糟糕NPC互动很可能是由AI而不是实际人类制作的,这增加了人们对此的怀疑。
本文来自投稿,不代表TePhone特锋手机网立场,如若转载,请注明出处:https://www.tephone.com/article/4261