虚拟现实技术日益演进,Meta(前Facebook)最新推出的研究成果URHand将沉浸感提升到新的高度,为用户打造了超逼真写实的虚拟手模型。这一创新旨在增强用户在元宇宙中的沉浸式体验和身临其境的认知。
Meta Codec Avatars实验室和新加坡南洋理工大学的研究人员联手发布了URHand,即“通用可变光照手部模型(Universal Relightable Hands)”。相较于传统的手部模型,URHand不仅能够个性化调整,还可以模拟真实光照环境下的手部细节。研究人员将其描述为“首个可适应不同视角、姿势、光照和个体差异的通用可变光照手部模型”。
这一模型的独特之处在于,用户只需通过手机上传几张真实双手的照片,模型即可根据这些照片定制出与用户本人相差无几的虚拟手,轻松将用户的手部特征带入虚拟世界。
尽管目前尚不清楚URHand何时能够转化为实际产品,但这项技术的展示已经引起了广泛关注。Meta多年来一直在努力打造逼真的Codec Avatars技术,致力于实现跨越时空的真实互动。近期,Meta首席执行官扎克伯格与Lex Fridman在一档播客节目中展示了该技术的最新进展。Meta的目标是将Codec Avatars引入独立式VR头显,但他们仍然面临一系列挑战。
虚拟化身的打造需要逼真的头部、面部、自然的肢体动作、真实服饰细节以及高度个性化的双手。由于双手是自我认同的关键部分,URHand的推出为解决虚拟世界中失真感带来的问题迈出了重要一步。未来,当用户在元宇宙中伸出手指、打招呼或握住虚拟物件时,将会感受到与现实世界一样自然的体验。
本文来自投稿,不代表TePhone特锋手机网立场,如若转载,请注明出处:https://www.tephone.com/article/6193