元宇宙的技术现在发展到了什么状态?元宇宙需要什么样的设备和内容支撑?为什么质变会在 2030 年发生?在马晓轶的分享中,或许能找到答案。
4 月 24 日,腾讯高级副总裁马晓轶在复旦大学管理学院校友会上,分享了他对元宇宙、VR/AR 等内容的看法。
在元宇宙热潮下,马晓轶对元宇宙短期 2-3 年内的变化,看法是保守的。尽管现在很多专项技术有了突破,但元宇宙时代所需要的通用设备(类似当年带来计算机革命的家用 PC,以及推动移动互联网发展的智能手机)现在还没有出现。无论从技术还是商业来看,离它的发明与普及都还有距离。
但对于更长线的 10 年发展前景,他有很强的信心。一方面,元宇宙概念在近两年得到更多的技术支持,正在从多方面解决自身的瓶颈问题;另一方面,社会对其认知也正在突破,从仅局限于游戏、软件中的概念,朝着跨越多个场景的方向发展。而元宇宙质变的时间点,他认为是 2030 年。
元宇宙的技术现在发展到了什么状态?元宇宙需要什么样的设备和内容支撑?为什么质变会在 2030 年发生?在马晓轶的分享中,或许能找到答案。
沉浸感:2030 年后,元宇宙或开始普及
首先,沉浸感,我觉得主要是两个方向:1.人机接口&交互方式;2.VR 等设备的体验问题。
现在我们提到 Metaverse,大家会不由自主地将它和 VR 联系在一起。当然,这是基于两个原因,一方面是因为前段时间 Facebook 下了非常大的赌注在 VR 的方向;另一个方向,我们如果要达成 Metaverse 的概念,那么 VR 这样的全新设备是免不了的。
为什么呢?普通人借助键盘、鼠标、触控等设备输入给电脑的信息,从电脑的技术角度来看,它们带宽其实很窄,能输入的信息很有限。而电脑只能根据这些东西,做出反馈,更多的信息都没有办法直接地输入进去。
但是,随着输入的带宽增加,其实我们可以加入更多维度。
比如,可以给 VR 设备增加更多的摄像头、传感器,将环境信息也输入到电脑当中。可以追踪人体状态,现在最新的技术可以实现 6 个维度——前后左右上下——的 3D 追踪,包括头的位置、眼睛朝向,方便和周围的环境互动起来。
其中最值得关注的,便是手的操作。现在最新的 Oculus Quest 2,还需要用手柄来输入信息,但是业内有一个共识,更自然的交互,是用手来交互。
这个进步,在手机上就出现过:早期的手机都是用触控笔来写的,但苹果就站出来说,这是违反人直觉的。人的直觉,应当是用手指去触摸屏幕——这个道理放在 VR 设备上也是一样。所以现在我们很多进展,就是去捕捉手指的动作。
另外,我们看到一些最新的技术专注做面部识别,捕捉表情。大家都知道人和人交流的时候,对方的反应是很重要的反馈。
比如说我们现在的线上会议,我的体验其实并不好,因为我看不到大家的表情,我不知道现在我的演讲是讲快了,还是讲慢了。可如果在线下,我就能马上看到观众的反应。所以未来我们也需要借助面部识别,去追踪人实时的表情,然后投射到虚拟的场景当中去......
这些新的输入方式,集成在一起,让信息带宽更大,能极大地改变电脑的信息输入。
也有一些让人非常兴奋的技术发展。
比如最近我们看 VR 头显上的显示单元。大家如果试过 Oculus Quest 2,就知道它上面使用了 Fast-LCD 的技术。不过这个技术有一个问题,那就是纱窗效应。当设备离眼睛太近的时候,你能看到 pixel 像素点就在你的眼前,好像隔着一个纱窗在看。这个其实就和当年低分辨率的手机显示屏一样。
之后的故事大家都知道,iPhone 能成功的很大一个原因,就是他们在 iPhone4 提出了视网膜屏幕的概念,极大地改善了大家使用手机屏幕的体验。
VR 发展到了今天,针对这些问题,也有一些新的技术在诞生。比如说已经在生产线上的,4K 分辨率的硅基 OLED 显示屏,已经能够为 VR 头显提供足够高的分辨率。
如何在 VR 头显上达成视网膜屏幕的效果?现在有一个标准,即,人的每一度视角上应该有多少个像素点。大致来说,有 30 个的时候,你已经开始感受不到像素的边界,如果到了 60 个/度,你就可以完全看不出像素点。所以,4K 硅基 OLED 显示屏已经足够让大家有一个非常好的体验。
亮度,也是一个 VR 头显的改变点。
从现在的硅基 OLED 显示屏,到未来的 MicroOLED 显示,都可以提供更高的亮度。之前,LCD 大致大概只有 400-500nit 的亮度,现在我们已经能看到 2000nit,而且从未来发展的路线图来说,我们已经看到 10000nit 的在研设备。
这就解决了一个非常大的瓶颈问题,即,提升显示单元的技术,增加用户的沉浸感。市场上也有了一些成型的产品。
但未来,还有一个很重要的发展方向,那就是折叠光路的技术。
以前的 VR 设备通常又厚又重又大,戴在头上很不舒服。未来我们能看到折叠光路的设备,可以将 VR 头显单元做得非常薄,更接近于普通戴眼镜的感觉。
还有一个突破,就是 VR/AR 的争论。VR 说,所有的内容都来自显示单元,但 AR 说,得将内容和现实环境做重叠结合。
现在来看,行业大家做的都是折叠光路的方案——依旧用显示屏来呈现所有的内容,但是会在外界增加更多的感应器,来捕捉用户的周围情况,最后叠加在你的显示屏上——行业里还有一个传闻,大概在明年年初的时候,苹果就会出这样的一个设备,运用折叠光路的方案,实现 VR/AR 的效果。
综上所述,人机接口方面的技术路线图发展得很清晰。除了电池受到不少限制以外,其他方面,几乎都有了解决方案,且都在进展当中。
这也是我们对于元宇宙、VR/AR 的发展抱有信心的原因。
另一个点,要想让技术体验足够好,单是设备内部有硬件支持还不够,还得有软件发展。
需要指出的是,这里的软件,指的是技术,不是内容。我们将其归结为 3 个维度:
1.可信的环境:Metaverse 的场景越来越真实,让用户能相信这是一个真实的世界。
2.可信的人物:人是社交属性很重的生物,我需要与群体互动、交流、协作。这个当中,最需要的便是一个可信的人物。我相信大家都对这一点多少有所体会。
3.可信的交互:还是聊线上会议,这种形式更像一个演讲,而不是讨论,线下会有人插入进来讨论,有碰撞,但现在的线上没有这些东西。
如果要做一个更真实的交互,要涉及到很多让人足够相信的细节。比如我让你拿一瓶水,我和你握手,我能感受到其中的温度、重量,而这些,都是传统的电脑、Pad 完全做不到的交互......不过现在已经有技术在这方面有了不少进展。
总结一下就是,随着技术的发展,我们需要提供很多的工具给做 Metaverse、VR/AR 的公司,同时,帮助大家可以做出更可信的世界和人物关系。
内容量:谁来提供足够多的内容?
这是一个挺大的话题。因为我们仍然不知道 Metaverse 需要包含哪些内容。不过现在来看,我们会觉得分几个维度:专业内容和通用内容。
这部分我会比较悲观。因为尽管技术在路线图上发展着,但需要更多的时间去准备。专用到通用,还需要更多的时间。
当一个技术还没有到举足轻重的地步时,它往往只是一个相对专业、专用的应用,比如说游戏、影视等方面;而通用类,比如说大家正在用的手机,现在已经有成千上万种办法去使用它。
大致拍脑袋说一下,我和内部团队交流的时候,一般将 2030 年作为一根基准线,在那之前,Metaverse 还会是专用的阶段,到了之后,才可能会有些机会走向更通用的状态,开始挑战现有的电脑、手机的使用场景。现在更多是一个新的、补充的场景定位。
这里可能需要更细致地说一下专用和通用的差别。
差不多一个半月之前,我和 Epic Games CEO Tim Sweeney 开会,讨论到这个问题的时候,我的总结是:我们现在的游戏,就是一个「游戏」,你看视频,看的也只是一个「视频」,但是 Metaverse 不一样,你应当是在 Metaverse 当中「生活」。期间有本质的区别。
比如当你去一个线上的电影院,那是一个专门的世界,割离出现实。但是 Meta 是将大家的生活融入、整合到这个虚拟世界当中。所以这就需要有足够多的内容,让你愿意生活在其中。
这些足够多的内容可以分为几个路线:
1.PGC 的专业制作,例如腾讯这样的公司制作电影、游戏、电视剧,这是一个专业的制作。PGC 仍然是 Metaverse 很重要的部分。
2.UGC。也就是用户产生的内容。
3.虚实结合。我们刚刚说了很多技术,便是要将现实世界整合、融入到虚拟的世界当中。
这三个部分,都是非常关键的内容组成部分。
那么如何实现呢?
首先,大规模的 PGC 内容,其实最近也有一些突破。关注新游戏的同学就知道,前段时间,Epic Games 有一个非常震撼的 demo,他们在《Matrix》上映的同时,做了一个虚拟的城市,这个城市的规模大概有 10-20 平方公里,当中有 3 万个市民,有大量的交通、建筑。
关键是,当中的车辆有自己的动作:到了红绿灯会停下来,看到人会停下来,而且这 3 万个市民,每一个人的穿着、行为、长相都不一样——若放在以往,要完成这么大规模的虚拟世界创造,几乎是一个不可能的任务。
但在今天,随着技术的发展,这些不可能的任务都在逐步实现,因为,一方面技术能力在增长,另一方面,这些东西有了更多的好方法去解决。
比如,我们和 Epic Games 有两个项目正在合作。一个项目,是可以通过 AI 来导入现实世界。之前我们去新西兰的一个山谷,那是一个 10 平方公里的山谷,我们在那里拍了 7000-8000 张照片,然后把照片导入引擎,这个引擎就会把山谷大致地还原出 90%,然后再经过我们手动的一些微调,就可以实现在短时间内生成一个非常大的世界,而且这个世界看起来还非常的真实。
另一个项目,我们做的是一个虚拟人的项目——国内叫做 Siren。后来 Epic Games 也发布了 Meta Human 的项目,一个高度仿真的人。这其实都回到刚才我们提到的概念:一个可信的人是虚拟世界当中重要的构成。
同样放到以前,你要做一个虚拟人物需要花费相当多的时间。
大家也许听说过这个故事:好莱坞很多电影要做一个虚拟人,线上渲染 10s 的片子需要几个月的时间,但以现在的技术,好莱坞要 4 个月做出来的内容,我们能在 0.01 秒就渲染、达成前者 95% 的质量。
这些,都使得大规模的制作有了更好的办法。包括动作捕捉等内容,在 AI 的加持下,可以让创建一个内容变得更加容易。
其次是 UGC 部分,我和外部看法多少也不太一样。
比如,外部谈到 UGC,那最关键的就是去中心化,但这个点上,我和 Roblox 的 CEO David 有很多的交流——我们很早就参与了 Roblox 的建设,2015 年左右就开始参与,做了不少投资——我们说到 UGC 内容成功的关键时,都提到社区的原则、透明性,尤其其中维持秩序、状态的部分,是需要强中心化的执行。
但这倒不是说我与外部意见相左,我认为,去中心化应该是指能力的去中心化:把工具、能力、资源给到用户,让大家无需一个中心化的平台,就能创建属于自己的内容。而能够支撑这些内容的,便是刚才所说的,一个持续、有原则、长线稳定的平台。我认为,这是一个做出 UGC 最重要的点。
而第三点,虚实的结合,很大程度上回到刚才我们所说的 Metaverse、VR/AR 新技术。其实我们所希望达到的目标,和互联网、人类社会以往的努力是一致的。人类一直想打破物理的限制,比如飞机、汽车都是为了消除物理的限制,缩短物理的损耗,提高大规模协同的效率。
所以长远来看,Metaverse 更多是考量如何引入更多外部、现实世界的服务和内容,打破物理的界限。
更现实的问题
最后,我想聊一聊 Metaverse、VR/AR 存在的问题。
虽然我刚才所讲到的内容好像都很乐观,但是我个人内心深处,还是略带一些悲观。
平时,我和大家聊的时候都会这么说:看短期 1-3 年,我比大部分人更加悲观,看长线的 10 年之后,我会比大部分人更乐观,会认为这些新技术的场景会为整个人类社会带去很大的变化。
就我的观点而言,现在的这些技术会在 2025-2027 年之间大规模面世,但是要铺开来做,还是得等到 2030 年。这是我心目中的一个时间表。
举个简单的例子,价格就是一个重要的参考。比如刚才所说的 4K 硅基 OLED 显示屏,它的体验非常好,但价格太贵,光是一个显示单元的价格,就和整个 Oculus Quest 2 的整机价格是一样的。所以,价格下来还需要很长的时间。
其次,商业模式本身也还存在一些问题。如刚才我所说,现在还为时太早。
如果要将我们当下的阶段去对应到过去的历史,那么有这样两个时间点:
1.通用设备的普及。
很多年轻人可能不知道,最先家用的专用设备,其实是游戏机——雅达利 2600,1977 年发布,它可以对标到现在 Oculus Quest 2 的情况。
而大家熟知的 IBM PC,是在 1981 年进入的市场,家用 PC 真正普及,是在 Windows 面世之后,85 年是第一个版本,大规模推广的 3.0 版本是 92 年才有的,而更广为人知 Windows95 已经是 95 年的事情了。
可以看到,这个过程起码有 6-10 年的发展。
2.商业模式的成立。
其实 90 年就有互联网出现,但是大家知道的互联网公司,包括腾讯、Google 等,都是在 98 年才成立。而且,这些公司真正找到支持他们的商业模式,大概都是在 2004 年左右。这过程同样花了很多年。
所以,短线来看,整个 Metaverse 的发展,还需要好几年的培育,但是培育的方向是清晰的,潜力也是非常清晰的。
上一个 20 年,整个互联网对人类社会、经济、技术的贡献,大家有目共睹,所以我相信未来 20-30 年里,以 Metaverse 为核心的、集成的互联网体验,会给整个社会带去更大的冲击。
而这其中,还会有很多的点,值得大家探讨、协作、推动。
本文来源:腾讯文化,原文标题:《腾讯马晓轶:元宇宙离我们还有多远?》