切换到宽版
  • 666阅读
  • 0回复

[智能应用]元宇宙,在 2022 年前进了几小步 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106074
金币
950
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 19969(小时)
注册时间: 2007-11-29
最后登录: 2024-11-15
只看楼主 倒序阅读 使用道具 楼主  发表于: 2022-09-28
有个笑话,说有人吃馒头,吃到第三个的时候才感觉饱,于是抱怨,说早知道就吃第三个馒头就好了,前两个馒头根本没用。

虽然现实中极少有人这么傻,但类似的认知错误却很常见:对技术愿景急于求成,忽略技术进步的过程。

去年经历了一波元宇宙热潮之后,如今这个词已经出现得没那么频繁,潮水褪去,裸泳者纷纷现身,拿元宇宙招摇撞骗的人没那么多了,而孤勇者也环视一下,发现其实自己未必孤独。

2022 年,是元宇宙褪去虚火的冷静期,正如我去年在《元宇宙需要「基建狂魔」》里面说到,元汁元味的元宇宙还很远,但元宇宙的基建已经拉开大幕。



投资人、分析师 Matthew Ball 的系列文章《Framework for the Metaverse》(元宇宙框架)里面把元宇宙的基础架构元素分为了「硬件、计算、网络、平台、工具,交互、支付、内容」等等多个方面。

作为消费与产业科技以及互联网的长期演变方向,元宇宙不会是一家独大,而是多方共创的结果,比如 Meta 主攻硬件、平台和内容,字节跳动&Pico 也大差不差,而高通肯定就是主攻计算和网络等基础技术,Unity 则是提供工具,至于支付,很可能是分布式的区块链技术......

所以,我们今天看到很多里程碑式的新产品,新技术,放在这个元宇宙这么宏大的愿景里面去的话,其实更像是一块块砖头,渺小但至关重要。

元宇宙不是它技术完全成熟时候的最后一块砖头,而是前面无数块砖头的合集。

我们可以看看,2022 年,关于元宇宙,出现了哪些新砖头。腾讯创始人马化腾把元宇宙称之为「全真互联」,其具体表现在于:多维感官的真实呈现、海量信息的全面连接、人机操作的自由交互、虚拟现实的有机融合……这是融合数字与实体、跨越时间和空间的全新连接方式。

Meta 开始挑战「视觉图灵测试」
2022 年在元宇宙领域,一个具有里程碑意义的进展就是 Meta 不久前展示了 4 款工程机,正式提出挑战「视觉图灵测试」。

图灵测试我们都知道,是测试人工智能是否能够达到人一样的智能。

而视觉图灵测试,则是测试 VR 设备展现的虚拟现实场景,是否可以欺骗人眼和人脑,让人以为眼前世界就是现实的真实世界。

虽然目前的 VR 设备可以提供很逼真很有空间感的场景,但是碍于像素密度,显示亮度,佩戴体验等等原因,我们还是很清楚,这个现实是虚拟的。

所以不管是 Meta 挑战「视觉图灵测试」,还是腾讯说「多维感官的真实呈现」,都是在给元宇宙的感觉体验标准定下路标。

在今年 6 月,Meta 公布了四款 VR 原型机和概念机,代号分别为:Butterscotch、Starburst、Holocake 2、Mirror Lake。


Starburst 原型机

这些产品代表着 VR 产品几个需要逐个击破的技术方向:Butterscotch 主打视网膜级别的高分辨率;Starburst 主打 20000nits 的超高亮度和 HDR 显示;Holocake 2 想要解决的问题是 VR 产品的小巧轻量化;至于 Mirror Lake 则是一款处于验证阶段的概念机,并没有真机展示,它融合了前面所有原型机的优点,高清高亮且轻薄。

除了这些原型机,还有 Meta 一直在研发的 Half Dome 系列原型机,这个系列主要解决的是 VR 产品显示不能变焦的问题。因为目前消费级 VR 产品都采用固定焦距的光学元件,焦距通常为 1.5 到 2 米,所以我们无论在 VR 产品看向什么地方,光线都来自相同的距离,但是人眼和人脑并不能发现这个问题。所以,VR 产品的虚拟画面模拟的距离和人眼聚焦距离之间的不匹配会导致视觉辐辏调节冲突 Vergence-Accommodation Conflict/VAC,这个冲突则是不少人戴 VR 产品感到眼睛疲劳的直接原因。

分辨率是模拟真实场景,通过视觉图灵测试最关键的一环。

在智能手机和电脑领域,我们常常说「视网膜屏幕」,意思是指屏幕的像素密度(PPI,Pixels Per Inch,每英寸像素数)到了一定程度之后,肉眼就分辨不清像素点,不过因为人眼看手机和看电脑的距离不一样,以及显示屏像素排列的不同,什么样的像素密度达到了视网膜标准其实没有准确的定义。

沿用到 VR 领域,视网膜屏幕则需要引入另外的评估维度:PPD(Pixels Per Degree,每度像素点数量),因为 VR 显示的视场角很广,通常达到了 110 度左右,所以即便 VR 产品采用了 4K 级别的屏幕( 4320 × 2160,单眼 2160 × 2160),那么这样 VR 显示屏幕的 PPD 就是 2160 像素÷110 度=19.6,这也是目前主流 VR 产品的显示效果。

VR 或者元宇宙行业一般认为,VR 产品的视网膜标准应该达到 60 PPD,如果能到 120 PPD,那真实感就会达到非常理想的状态。由此可见,现有产品和理想值之间,存在着不小的差距。



Butterscotch 原型机采用了单眼 3K 分辨率的 LCD 显示面板,并且把视场角限制在了 Meta Quest 2 VR 头盔的一半左右,然后配上定制透镜,最终让这款原型机的显示 PPD 达到了 55,非常接近所谓的「视网膜屏幕」标准。

需要说明的是,这里算力并非瓶颈,Meta Quest 2 用到的高通骁龙XR2 平台早已支持单眼 3K 显示,主要难度在于显示面板、视场角、透镜和体积之间的矛盾。


Butterscotch 原型机

当然,把 PPD 提升到 55 也让 Butterscotch 原型机付出了巨大代价,它的视场角狭小,并且异常笨重。

在到达成熟元宇宙体验的终点前,我们可以回顾一下当前技术所处的位置:元宇宙显示设备(通常被认为是 VR 产品)需要通过视觉图灵测试,要想通过这个测试,需要在分辨率、显示亮度、变焦、轻薄等维度上达到一定的数值:比如 PPD 到达 60、峰值显示亮度到达 20000nits 等等。

现在消费级产品,离这个门槛值还有非常长的距离,而能够在某一方面达标的原型机又不能兼顾其他目标。

所幸的是,我们知道了长期目标,并分解了目标,还做出了好多个原型机,也知道前进的方向和维度。

这难道不比单纯地描绘元宇宙场景更贴近于「进步」的真正含义吗?

消费级 VR 有何进展?
一家来自中国的厂商刚刚则在消费级 VR 产品上也迈出了一小步。

Pico 日前发布了新一代 VR 系列产品 Pico 4 和 Pico 4 Pro,新产品最大的亮点,就是采用了自研的 Pancake 透镜,让 Pico 4 更为轻薄。相比于前代 Pico neo 3,Pico 4 的重量减轻了 26.2%,厚度降低了 38.8%,同时电池容量没有减少。



Pancake 透镜光学模组的厚度相比于传统的非球面和菲涅尔透镜方案,降低了一半(2厘米左右),另外,由于这种方案采用两片或多片透镜,可以实现屈光度调节(近视用户可以不用佩戴眼镜)以及改善边缘成像质量。


菲涅尔透镜和 Pancake 透镜方案差异

当然,Pancake 透镜的结构会更复杂,同时成本也更高。

除了大为轻薄,将重量控制在了 295 克之外,Pico 4 另外两个明显进步则是高清彩色透视和裸手交互。

在我看来,这两个新功能,才是 VR 产品通往到元宇宙的两扇门。

早期 VR 产品戴上之后,基本上就与世隔绝了,只能沉浸在虚拟世界,想要和现实世界联系,就只能摘下头盔。

后来我们在 VR 头盔上装上黑白摄像头,通过拍摄外部环境并显示在 VR 屏幕上,让我们知道头盔外面大概是什么样的,不过这一批产品大多都是黑白透视,效果很差。

高清彩色透视,其实本质上是让 VR 产品变为 XR 产品。

虚拟世界和现实世界在 VR 头盔不再被隔断开来,而是有了融合的可能性。

至于裸手交互,也是在现有的手柄交互上提供了更自然更天然的交互方式,毕竟没有什么比我们的手更灵活的了,而成熟元宇宙的交互当中,最理想的肯定不是键盘鼠标,触控屏幕,而就是我们的双手。

有意思的是,高清彩色透视和裸手交互这两个新功能其实也依赖于其中那颗高通骁龙 XR2 的支持,这再一次证明了,元宇宙也非常依赖于产业协作。

5G 怎么和元宇宙联系起来?
前面聊 Meta 和 Pico 的产品,更多的是在元宇宙架构中设备和交互层面的进步,接下来,则是关于网络。

在刚刚结束的世界人工智能大会(WAIC)上,高通展示了名为「业内首次基于 5G 切片的端边协同 XR 分离渲染技术提升无界 XR 新体验」的技术。

读起来拗口,看起来复杂,但意义也挺重大。



早先 VR 产品不能自己运算,得用线连接到 PC,但是后来有了 VR 一体机;之前 VR 产品也没有透视功能,不清楚外面的世界是怎样,现在则有了彩色透视;束缚 VR 的也还有网络,只要仅支持 Wi-Fi,那就等于我们不能戴着 VR 产品离开路由器太远。

显然,5G 是更为广阔且自由的世界。

「业内首次基于 5G 切片的端边协同 XR 分离渲染技术提升无界 XR 新体验」简单来讲,是实现了三人协同 VR 游戏体验和端边协同分离渲染。



本次测试共采用三台爱奇艺奇遇 Dream Pro VR 一体机,和采用中国移动终端切片解决方案的小米智能手机,一台中国移动研究院联合世炬、共进研制的 5G 家庭小基站共同完成。

虽然 5G+VR 是经常提到的组合,但实际实现还是难度不小的,测试里面,三位 VR 玩家都获得了 1832×1920 分辨率、90FPS 的 VR 实时渲染画面,这个画面对于带宽要求相当高,不过因为 5G 网络切片技术,每个玩家都能获得 100Mbps 级别的下行速率,即便未来 VR 产品显示分辨率更高,刷新率更快,这个速率也还有冗余。

这里解释下什么是 5G 网络切片,因为在 5G 时代,各种设备和服务对于网络的需求是不一样的,比如智能家居,环境监测,智能农业要求是海量设备连接和低数据量但高频的连接;而 4K 视频,VR,直播,云游戏则对更要求带宽速率;车联网、智能电网和工业控制等业务则要求毫秒级的时延和接近 100% 的可靠性。

通过网络切片,运营商能够在一个通用的物理网络之上构建多个专用的、虚拟化的、互相隔离的逻辑网络,来满足不同客户对网络能力的差异化要求。

除了用 5G 网络切片保障 VR 游戏的带宽速率,高通的这项技术测试更重要的是「端边协同分离渲染」。

端是指 VR 产品端,边是指边缘云,在这个测试中,高通实现了边缘云局部渲染负载分流,将更重型的算力交给边缘云处理,等于是让 VR 设备获得了更强的运算能力。

可以想象得到,这项技术可以进一步降低 XR 设备功耗和发热, 同时让产品体积缩小,重量降低,提升佩戴舒适性。

看到这里,相信不少人会感觉到元宇宙各项技术之间的复杂性:硬件、计算、网络、平台、交互、内容并不相互孤立,而是盘根错节。

比如看起来高通这个 5G 无界 XR 的技术是讲网络,但实际上核心是提升了设备的计算能力;而 Pico 4 在交互上的改变,又是得益于硬件技术的进步。

也正是由于元宇宙的复杂性和前瞻性,所以除了 Meta 和 Pico 这样的终端设备生产者(同时也是内容贡献者)之外,也需要高通,Unity 等基建型的公司提纲基础的计算和网络支持。

前面提到的数款 VR 设备,比如 Meta Quest 2、Pico 4 和奇遇 Dream Pro VR 一体机,都采用的是高通的骁龙XR2 平台。实际上,正如骁龙8 系 SoC 一直是旗舰手机的首选一样,高通骁龙XR2 也是目前高端 VR 设备的首选计算平台。



之所以说是平台,而非处理器,还是因为元宇宙的要求太复杂,除了 CPU 和 GPU 的性能提升之外,我们还可以看看骁龙XR2 5G 平台还有哪些元宇宙特性:

具备计算机视觉专用处理器,能够支持七路并行摄像头,支持低时延摄像头透视(camera pass-through);
处理 3D 图形方面,XR2 5G 平台相比于上代拥有5 倍的像素着色率、1.5 倍的像素填充率、3 倍的纹理填充率;
支持眼球追踪的视觉聚焦渲染,单眼分辨率在 3K× 3K 下能够实现 90Hz 高刷新率
支持 8K@60fps、4K@120fps、HDR10/HDR10+视频
支持 26 点手部骨骼追踪,3D 空间音效
凭借骁龙 X55 调制解调器和射频系统,最高可以提供 7Gbps 的下行速度和 3Gbps 的上行速度
某种程度上讲,这些特性可以反过来让我们认识元宇宙对于硬件、交互、网络的需求,也帮助我们明白了,视网膜级别的 VR 显示,临场真实的空间音效,裸手交互,彩色透视,5G 网络下的端边分离渲染等等技术和功能基于什么。

元宇宙概念的出现,不光是巨头公司参与其中,也有不少创业企业跃跃欲试,经历了一次虚火褪去之后,其实产业沉静了一些。今年年初,高通宣布成立骁龙元宇宙基金,投资1亿美元,协助开发者和相关企业打造独特、沉浸式的XR体验,以及相关的增强现实和人工智能技术。

高通表示,这项基金会联合高通创投,对领先的 XR 企业,包括为游戏、健康和保健、媒体、娱乐、教育和商业等领域打造 XR 体验的开发商提供资金、设备、技术和营销援助。

同时,前面说到的 Meta 和 Pico 也都和高通保持了合作,一道在 XR 领域进行软硬件创新。

相比于成熟消费电子市场激烈的竞争,目前在元宇宙产业里面,大家依旧是以合作居多,不光是各司其职,也在复杂的技术架构里面携手互助。比如高通明显依旧想做引路人或者说赋能者的角色,而骁龙平台,则是定位为打开元宇宙大门的那把钥匙。

整体上,以技术进步以及落地的角度来看,2022 年,元宇宙方面出现了不少值得鼓掌的新动向,其实还是有不少公司正在持续努力当中,让虚拟的元宇宙,不那么虚无。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个