计算,元宇宙的底层逻辑

及时发送足够的数据只是操作同步虚拟世界过程的一部分,此外还必须理解数据,运行代码,评估输人,执行逻辑,渲染环境等等。而这就是 CPU 和 GPU 所要承担的工作,在广义上叫作“计算”。阶有数字工作的执行都有赖于计算。几十年来,我们可以看到每年可用的相制造的计算资源数量不断增加,也见证了它们的强大。尽管如此,计算你从去到现在甚至是将来都很可能处于稀缺状态,因为当我们获得了更的订算能力时,通常就会崇试执行更复杂的计算。

在元宇宙的沉浸式模拟的下一步将远远超越更逼真的爆炸效果或更生动的虚拟化身这一水平。设想下,如果把“粒子物理定律、引力定律、电磁定律、电磁波(包括光)和无线电波......压力和声音”应用到元宇宙中。元宇宙的虚拟世界就和我们现实世界相差无几了。

而元宇宙是否需要如此遵从物理定律是存在争议的。这里的关键问题是,因为计算能力的进步总会带来重要的突破,而突破就意味着需要更多的计算能力,所以计算能力无论如何都是稀缺的。将物理定律带人虚拟世界的愿望似乎很难实现,但是如果这个愿望的确无法实现,就需要预测和排除将物理定律应用在虚拟世界可能带来的创新。谁会想到100人的大逃杀游戏成为现实会改变世界呢?可以肯定的是,计算的可用性和限制将决定对于哪些人来说,在何时何地,怎样的元宇宙体验是可能实现的。

同一问题的两个方面

我们知道元宇宙需要更多的计算能力,但并不知道具体需要多少。可供数十亿人实时访问的计算,需要满足的条件更多:与当今最先进的技猷相比,计算效率需要提升至目前的1000倍。对于如何以最好的方式实现这一目标,人们有不同的看法。一种观点认为,计算应该尽可能在远程的工业级数据中心而不是在消费级设备上执行。虚拟世界需要的大部分计算在每个用户的设备上单独执行,这对很多人来说都是一种浪费,因为这意味着很多设备为了支持相同的体验需要在同一时间执行相同的操作。相比之下,由虚拟世界“所有者”运营的超级强大的服务器只是跟踪用户输人,在必要时进行中继( relay )处理,然后在过程发生冲突时充当裁判。它甚至不需要渲染任何东西!

此外,远程计算尚未证明自己在渲染方面更高效,这是几个相互关胖问题导致的。 GPU 在任何给定时刻都不会渲染大部分虚拟世界,更不用说渲染整个虚拟世界了。相反,它只会在用户需要时渲染所需内容。也就是说支持玩家的新视野。这个过程被称为“视锥剔除”。其他技术包括“遮挡”和“细节层次”。遮挡是指如果玩家视野中的某些物体被另一个物体挡住,则不加载或渲染被挡住的物体。细节层次是指,只有在玩家应该可以看到某些信息的时候才加载它们,比如白桦树树皮的细微纹理。

视锥剔除、遮挡和细节层次解决方案对于实时渲染体验至关重要,因为它们能够让用户的设备将处理能力集中在用户可以看到的内容上。但结果是,其他用户无法“搭载”该用户的 GPU 进行计算。相关的 GPU 支持对多个参与比赛的人同时进行渲染,而不是对所有玩家执行这样的操作。这里的区别至关重要,它要求每个玩家都必须进人相同的比赛和级别,不能提前退出。这是因为设备的处理器只能加载和管理有限数量的信息,并且它的随机存取存储器系统将临时存储各种渲染(比如树或建筑物)数据,以便它可以被每个玩家重复使用,而不是毎都从头开始渲染。此外,每台议备的分辨率或帧速率下降的程度与用户成正比。这意味着即使使用两台电视来操作从双人模式的游戏,而不是一台电视分成两部分,每台电视每秒也只能接收一半的渲染像素"。

从技术上讲, GPU 可以渲染两个完全不同的游戏。 GPU 不会生成通用渲染功率,不能像发电厂将电力分配给多个家庭那样在用户之间进行分配,也不像 CPU 服务器那样可以支持大逃杀游戏中100位玩家的输人、位置和同步数据。相反, GPU 通常作为支持单个玩家渲染的“锁定实例”( lockedinstances )运行。许多公司正在想方设法解决这个问题,但在找到可行的解决方案之前,设计类似于大型工业发电机、涡轮机其他基础设施的“巨型 GPU ”,并不能确保渲染功率稳步提升。随着容量的增加,发电机的单位功率通常更具成本效益,但 GPU 的情况正好相 X反。间而言之, GPU 要想功率翻倍,其生产成本也得翻惜。因为“拆分”或“共享” GPU 存在困难。

云渲染服务器也面临利用率问题。消费者购买的这些服务器,可能是游戏机或游戏专用个人电脑,这时没人会关注它们是否被使用或是否离线。然而,数据中心的经济考量总会以优化需求为导向。因此,租用利用率低的高端 GPU 一直都很昂贵。这就是为什么如果客户提前从租用服务器,服务器供应商会为他们提供更优惠的价格(预留实例, reservedinstances )。因为客户已经为服务器付费,他们下一年的访问权限就可以得到保证,而云服务器供应商则将成本与向客户收取的费用之间的差额收人囊中( AWS 最便宜的预留实例 LinuxGPU ,相当于一台PS4,一年的费用超过2000美元)。如果客户想在需要时访问服务器(竟价实例, spotinstances ),他们可能会发现这些服务器是不可用的,或者只有低端 GPU 可用。这里的最后一点是关键所在:如果解决远程服务器价格高昂问题的唯一方法是使用而不是替换旧服务器,那么我们并没有解决计算资源稀缺问题。

将计算资源转移到云上会产生许多新的成本。从流式传输有限位数据到流式传输高分辨率、高帧速率内容的转变也意味着带宽成本的增加。

在可预见的未来,我所说的“斯威尼定律”本地计算的提升将继续超过网络带宽、延迟和可靠性的提升,很可能会成立。尽管许多人相信它登.摩尔( GordonMoore )于1965年提出的摩尔定律,即密集集成电路中的晶体管数量大约每18个月会翻一番,但这种增长速度现在正在放缓、而 CPU 和 GPU 处理能力继续快速增长。此外,今天的消费者经常更换主要计算设备,导致每两三年面向终端用户的计算就会产生巨大的进步。

猜你喜欢

转载自blog.csdn.net/daidai2022/article/details/132271643