VisionPro的沉浸模式手臂打光有何细节?

1个回答

写回答

Ailinna

2026-02-11 10:11

+ 关注

小红书
小红书

再补充一点细节内容。在透视模式下,手臂肤色为现实场景颜色。可进入沉浸模式时,手臂颜色就会依据沉浸场景的画面打光,从而融入环境,这实在很科幻。各位果黑,你们难道还觉得不够细致吗?本果区觉得这超科幻的。视频源于推特@Brad Lynch。

评论里有人讲这手没光影,只是加了层滤镜。巧了,我在小红书刷到个视频能解答。我做过一些三维项目,用过C4D和Blender。用过这两款软件的人肯定很熟悉HDR贴图打光。HDR全景照片能当灯光给物体打光,因为它有明暗关系,颜色也会反射到物体上(初级三维玩家最爱用常用的HDR贴图打光了)。在VisionPro的沉浸体验里,就好像你和增强现实(AR)物体一同处于一张巨大的高动态范围(HDR)全景照片之中。由于手部是实时抠像出来的,所以在光源下会实时发生变化。VisionPro的刷新率为100Hz,这意味着M2+R1芯片需要在一秒内抠出几十张手部图片,赋予其实时光影效果,并且将延迟控制在12毫秒,同时还要在这种状态下确保各种应用(App)能够流畅使用。我越琢磨越觉得,其他厂商在近几年很难做到这一点。我也越发理解only Apple can do这句话的含义了,它不仅表示只有苹果能做到,也有只有苹果会去做的意思。

这个产品真的让我明白了only Apple can do这句话的含义。大家都过于关注硬件和显示效果了。VisionOS被严重低估了,其细节超多。随便拎出几个系统细节,竞品就难以应对,有些细节甚至会让人惊叹不已。苹果在Mac和iphone上多年坚持使用毛玻璃,而在vision pro上有了最终的呈现方式。visionOS的毛玻璃实现了与现实世界的真正融合,还能与现实世界产生交互。毛玻璃效果的UI背景。毛玻璃有个天生的特性,既能模糊显示背景内容,又不影响文字阅读,还能与现实自然融合。透过毛玻璃背景,可隐约看到背后模糊的物体和人物,画面实时运算,能让人实时与现实相链接。

照片
照片

现实光影与UI之间的交互。圆角毛玻璃,有光源的地方就会有高光,不理解的可以看这张图。左上角有高光,右下角有反光,你以为它们是固定不变的吗?不是,它们会依据现实场景光源实时发生变化。

投影试想,玻璃在现实中有投影吗?有。那毛玻璃?其投影更强。当然,投影的产生是有条件的。界面距地面近,阴影就重;离地面远,就会变虚直至消失。于是,苹果在这套UI里也添加了实时投影。

玻璃的反射(这一点最让我感到震惊)再设想一下,你拿着一块玻璃,现实里玻璃会映出你的模样,但不像镜子那般清晰,毛玻璃的映照就更模糊了。苹果也考虑到了这一点,真让我惊讶得说不出话来。直接看图吧,留意使用者手臂滑过界面时,界面的实时反应。

这几个看似与UI不相关的设计,着实彰显出苹果的强大实力。苹果致力于让虚拟与现实实现完美融合,我给这套逻辑打90分。这并非初代IOS,而是一套完整且细节满满的操作系统,看到视频里毛玻璃对手部的反射,我惊叹不已。我很确定,未来竞品目标如此,空间设计必定以毛玻璃为主。再补充几个细节,苹果沉浸模式涵盖诸多场景,不同场景下人与场景的交互很有趣。在这个山林场景里,将UI界面置于水中会产生倒影,还能听到风声和鸟叫,这很贴合现实。

这个电影院场景也存在光的反射,以模拟真实的电影院。

在这座山上,朝着天空大喊的话,是能听到回音的。

这些细节太多了,这确实不是第一代iphone能做到的。还有逆天级别的延迟,仅12毫秒。关键是苹果对此一点都没吹嘘。有up主用高速摄像机测出其延迟为10毫秒,而对应的竞品延迟达到了50毫秒。这是非常逆天的,你不会察觉到眼镜所见与现实有差异,所以也不会产生眩晕感。

这种程度的延迟,还有我之前提到的那些细节(沉浸画面部分除外),真的只有苹果能做到,其他家在未来几年也无法做到。补充一个只有苹果Apple)能做到的东西。送的充电器功率才30w,可头显功耗远不止30w,极限可能达50w,嗯……这很苹果的风格。还有件趣事。YouTube和网飞在Vision Pro发售前就宣称不会为其开发应用,还直接下架了能直接运行的iPadOS版本。这是Vision Pro发售后这两家的反应。油管计划推出适用于Vision Pro的应用。网飞:这项技术令人恐惧。网友:呵。你可是有8个月时间来开发软件的啊。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号