1 月 22 日
Meta Codec Avatars 实验室和新加坡南洋理工大学研究人员联合开发的 URHand,即「通用可变光照手部模型」,可根据用户的真实双手进行个性化调整,模拟真实光照下的手部细节。这项技术能将用户的虚拟手带入虚拟世界,提升沉浸感和化身认同感。尽管目前尚不清楚何时能转化为实际产品,但这一成果为解决虚拟现实中手部模型失真问题迈出了重要一步,对未来元宇宙中的沉浸式体验具有重要意义。
VR 世界沉浸感再升级,Meta 打造超逼真虚拟手模型
搜狐科技 / IT 之家
话题追踪
2024-05-23
Meta 人工智能主管:大型语言模型不会达到人类智能水平2024-04-10
OpenAI 和 Meta 准备推出具有 「推理」 能力的新 AI 模型2024-03-06
Meta Quest 2 / Pro 头显新增躺卧模式2024-02-18
Meta 计划重塑 Quest 头显核心 UI 基础架构2024-01-22
VR 世界沉浸感再升级,Meta 打造超逼真虚拟手模型2023-11-02
Quest 3 VR 头显手柄追踪问题引发用户不满,Meta 称正在调查2023-04-06
Meta 发布人工智能模型 计划年底前实现生成式 AI 商业化2023-02-08
Meta 计划最快三月份向青少年用户开放 Horizon 元宇宙应用查看更多