自从 Facebook 更名为 Meta 以来,关于元宇宙的嗡嗡声很多,人们对虚拟世界的兴趣也重新抬头,因为尽管虚拟现实 (VR) 的概念已经存在了很长时间,但该技术现在才开始真正应用。
第一个是 The Met**erse,这个概念至少可以追溯到 1984 年,当时威廉·吉布森 (William Gibson) 写了他的神经术士,这个概念一直是科幻小说的常规特征。
几十年来,VR 一直是流行文化的一部分,出现在《黑客帝国》、《网络世界大战》和《头号玩家》等电影中。 自从Oculus Rift、PlayStation VR、Valve Index、HoloLens甚至Google Glass等消费类设备推出(偶尔出现故障)以来,该技术已经稳步走出科幻小说,进入商业现实。 但还有很长的路要走。
本文将虚拟现实和增强现实作为一组主要三类进行讨论:一端是完全沉浸式虚拟现实,另一端是增强现实 (AR),以及介于两者之间的各种称为“融合现实”(MR) 的方法。
这个范围可以被认为是一个更广泛的类别,称为“扩展现实(XR)”,其中包括上述三个类别以及触觉和空间音频等支持技术。
未来,XR扩展现实可能包括脑机接口、气味和温度反馈,甚至可能包括味道。 由于各种原因,这些未来的概念还没有出现,但主要是因为在设备上还有很多研发工作要做。 目前尚不清楚感官界面的数据是什么样子的,但在这个阶段,我们确实有AR VR、触觉和空间音频的设备和数据,所以这些都在向前发展。
我们经常被问到的问题是,“为什么扩展现实还没有起飞?为什么XR不是无处不在?为了回答这些问题,并讨论我们如何努力实现包括元宇宙体验的未来,我们需要看看今天存在的一些局限性。
有了AR,眼镜笨重、笨拙,基本上只有一种款式。 还记得 Google Glass 或 Snapchat 眼镜吗?如果你喜欢这种风格,那就太好了。 否则,无论技术多么酷,您都可能不会佩戴它们。 人们需要多种款式可供选择,因此要实现真正的多功能性,技术需要与多种选择兼容。
至于VR头显,一个简单的事实是,大多数人不想长时间佩戴头戴式设备。 它们很重,会发热,所以你会感到热和出汗,这只会让你感到不舒服。
但它们适用于短时间,例如模拟从飞机上跳下或与大白鲨一起自由潜水。 但它们不是大多数人用来**故事片或玩视频游戏三个小时的那种设备。 当谈论AR或混合现实设备时,它们可能会变得更加笨拙。 例如,你永远不会看到大多数人在公共场合佩戴 HoloLens。 但随着设备变得更小、更舒适,这种情况可能会改变。
未来的混合现实 融合现实设备还需要更多的功能和更宽的视野,以便为 AR 应用提供更先进的透视显示。 实现这一目标需要更多更好的摄像头、红外 (IR) 摄像头或其他传感器来创建准确的空间地图,从而提高整体体验质量。 设备制造商已经意识到了这些挑战,并且已经在研究解决方案。
无论用户使用什么设备,现实世界的虚拟增强收敛实际上是什么样子的?是AR,将不同的**叠加到现实世界的环境中,让现代城市看起来像中世纪,还是改变人们的衣服?或者我们是在谈论现实世界的真正虚拟表示,就像你所在城市的数字孪生一样?
还有更奇妙的东西:一个完全身临其境的虚拟环境,在现实世界中根本不存在。 无论我们在谈论什么,都需要大量的计算,而且设备本身太小,无法容纳呈现这些体验所需的所有处理能力。
为了使眼镜和耳机变得更小、更轻、更便携,同时能够处理所需的功能,移动网络必须得到改进。 为了使设备更小,电池寿命更长,产生的热量更少,我们需要将处理能力卸载到网络边缘。 这必须以这样的方式完成,即延迟保持在或低于 20 毫秒的阈值,因为如果人们在 VR 中超过 20 毫秒的延迟,他们就会生病。 在一些高级 AR 应用中,设备可以跟踪和识别快速移动的物体,这些应用需要更低的延迟,低至 5 毫秒。
随着时间的流逝,我们将看到在头戴式设备本身上完成的计算越来越少。 为了保持设备移动,我们的 5G(和 6G)网络将需要能够处理网络吞吐量、边缘计算和延迟;我们需要低延迟、低抖动、高带宽、超可靠且无丢包的传输网络。 我们正在到达那里,但网络还不能做到这一点。
我们需要更强大的网络,这不仅是因为缩小设备的需求推动了对边缘计算的需求,还因为虚拟世界需要大量的图形处理和渲染。 这种渲染需要在边缘完成,渲染的世界会近乎实时地返回给设备和佩戴者。
将图形处理和渲染移到边缘为设备变得更小、更轻打开了大门,但它也为复杂渲染的新创新奠定了基础,这些创新可以远程进行并返回设备。 远程渲染**游戏和其他相对线性的虚拟世界是一回事,而实时渲染现场体验完全是另一回事。
一些设备尝试了不同型号的卸载计算能力:Valve Index 是一种 VR 设备,通过有线连接连接到高性能计算机,主要用于游戏。
然后,一家名为Nreal的公司提供了一套AR眼镜,该眼镜使用有线连接来利用智能手机的处理能力。 虽然这两个示例都使用有线连接,但它们都将我们推向可以通过无线网络访问、处理和渲染的应用程序、设备和虚拟世界。
还有一种名为Sidelink的技术正在3GPP中标准化,以允许某些蜂窝设备在不通过核心网络的情况下相互通信。 这有可能对 VR 和 AR 渲染有用,因为蓝牙等短距离无线技术速度太慢,无法有效处理这些应用的高带宽需求。 这些创新激发了眼镜等设备有朝一日取代手机的潜力。
Facebook Meta 会“拥有”元宇宙吗?他们将拥有一个虚拟世界,他们可以称之为元宇宙,但他们不会拥有所有的元宇宙,就像他们今天拥有互联网一样。 元宇宙将是我们可以访问的虚拟世界的集合,就像互联网一样,有无数的站点可用于各种可以想象的目的。 元宇宙的某些部分可能是现实世界的数字孪生,某些部分可能是现实世界与虚拟世界的合并版本,而其他部分可能仍然是完全虚拟的。
元宇宙最终将变得去中心化和独立于设备。 而且,就像互联网一样,它需要一套标准、协议和通用 API 来确保它正常工作并具有高度的互操作性。 一旦发生这种情况,用户将能够使用智能手机等智能设备通过5G(或6G)网络访问Facebook Met**ESE,就像使用索尼设备通过AT&T网络访问Google的虚拟世界一样容易。
如果设备和世界在很大程度上仍然是私有的,就像今天一样,增长潜力将受到限制。 met**erses的互操作性标准将是必不可少的,就像用于压缩的MPEG和用于蜂窝通信的3GPP一样。 在虚拟世界中,无论您与哪个提供商合作,您都可以访问不同的区域,并且每个企业在虚拟世界中都会有自己的品牌特定体验,就像在现实世界中一样。
为了为尽可能多的用户提供最高质量的体验,设备和网络互操作性至关重要,必须进行标准化。 一旦制定了这样的标准,就没有公司拥有它,就像没有公司拥有3GPP或MPEG一样。
那么,一旦我们到达那里,将如何使用扩展现实?我们预计游戏仍将是一个重要的驱动力,就像今天一样。 但是,我们可以通过许多其他方式看到这项技术的形成。
如果我们能设计一个虚拟体育酒吧,通过VR设备可以进行任意数量的比赛**,并通过移动头部看向不同的方向来改变频道;或者,在比赛时,您可以将身临其境的体验视角从驾驶座切换到维修站或看台;如果您可以模拟与鲨鱼一起潜水、跳伞或参观世界级博物馆会怎样?元宇宙的可能性似乎是无穷无尽的。
我们可能还需要 15 到 20 年或更长时间才能实现真正标准化、开放的元宇宙。 与此同时,我们将看到无数公司正在尝试自己的元宇宙,比如 Facebook 提出的 BIG-M Met**erse。 但 Facebook Meta 最终会拥有这一切吗?当然不是。 Facebook可能有一个“品牌化”的元宇宙,但会有很多元宇宙可供探索和享受。
基于3DCAT稳定、高效、低延迟的云GPU实时渲染能力,CloudXR可以将任何终端设备(包括头戴式HMD、联网的Windows和Android设备)转换为可以显示专业品质图像的高清XR显示器。 2023 Post Sprint Contest 这篇文章“元宇宙是 VR 虚拟现实的未来吗?内容由以下机构提供3dCAT实时渲染云解决方案提供商整理发布,如需**,请注明出处及链接。