老黄携「超级GPU」炸场E级AI超算性能飞升,买越多越划算,

b4bfdd4ac3d94585cda8fceddf9905da.jpeg


  新智元报道  

编辑:编辑部
【新智元导读】英伟达又放大招了,这次直接用超级GPU GH200燃爆了市场。

今日的COMPUTEX大会上,英伟达CEO黄仁勋向全世界宣布—— 我们已经到达了生成式AI的引爆点。从此,全世界的每个角落,都会有计算需求。 股价刚刚暴涨2000亿美元的英伟达,为这一刻早已做好准备。 一开场,身着黑皮衣的老黄慷慨激昂地走上舞台,「大家好!We’re back! 随后,便祭出大杀器——「超级GPU」 GH200,并宣布谷歌云、Meta和微软将率先获得GH200。 dedcad6f4ba5169470a440d7962d354b.jpeg 据称,有超过3500人亲临现场,体验了长达2个小时的激情讲。 时隔4年,阔别已久的老黄也是狂飙中文。 a0438e00d01a6d6dc5b2abdbc13ad8a3.jpeg

「超级芯片」GH200


要说,这次演讲中,重头戏还是在GPU上。毕竟AI的iPhone已经来临。 老黄左右手分别端了一个芯片,重磅宣布,「GH200超级芯片」已经全面投产。 d3d02c53b2b95d7c03d996830710a766.jpeg 这一「超级GPU」使用NVLink-c2c互连技术,将基于ARM节能的GraceCPU和高性能NVIDIA H100 Tensor Core GPU结合在一起,提供了高达900GB/s的总带宽。 目前,由GH200加持的系统加入了400多种系统配置。 这些系统配置由英伟达最新的CPU、 GPU和DPU架构的不同组合提供动力。 其中包括Grace、Hopper、Ada Lovelace和BlueField,这些架构的创建是为了满足对生成式AI不断增长的需求。 b23fa4d5dfef8ca44d5f54e5e6a03b27.jpeg 此外,老黄还宣布了一个更重磅的:256个GH200组成的超算来了。

超算DGX GH200,今年上市

英伟达表示,全新DGX GH200人工智能超级计算平台,是专为大规模生成式AI的负载而设计。 这台由256块Grace Hopper超级芯片组成的超算,将拥有高达1 exaflop的超凡AI性能,以及144TB的共享内存(比上一代DGX A100多了近500倍)。 举个例子,在GPT-3训练中,它能比上一代DGX H100集群快2.2倍。 此外,这个庞然大物还包含了150英里的光纤和2,000多个风扇。 目前,英伟达已经与三大巨头进行了合作,谷歌、 Meta和微软。 e2a02366b9347933f2b8c473a72fa161.jpeg 由于生成式人工智能的爆炸式增长,微软、谷歌等巨头希望拥有更强大、性能更好的系统。 而DGX H200的设计目的是,通过使用英伟达定制的NVLink Switch芯片,绕开InfiniBand和以太网等标准集群连接的局限性,为最大工作负载的大规模可扩展性提供最大的吞吐量。 ecfd51f0d41db24710da5011989f5fc4.jpeg 另外,英伟达表示正在建造自己的大型AI超级计算机NVIDIA Helios,预计在今年上线。 它将使用4个与NVIDIA Quantum-2 InfiniBand网络连接的DGX GH200系统,以提高数据吞吐量,以训练大型AI模型。 以往的数据中心都非常庞大,而且是基于CPU的,算法的迭代要花很长时间,大部分算法,也都是CPU中心的。 而现在,有了Grace Hopper,只需要几天甚至几个小时,就能完成这个过程。简直要把整个行业都革命掉了! 6f1793fb0dc0487d93edd44b7fb35018.jpeg (等等,PaLM的参数不是540B么?)

老黄:买越多,越省钱!


作为现在的扛把子,这样一个重65磅,价值200000美元的H100计算机,是世界上第一个搭载了Transformer Engine,也是目前全世界最昂贵的计算机。 f973058bb6397cf4e52a42b972bf161d.jpeg 老黄表示,可以说,像这样的产品,你买得越多,就省得越多。 11c7abd3351995edeec30edeb8c24345.jpeg 接下来,老黄提到1964年的IBM 360,强调了CPU的重要性。 老黄自信地重复表示,「而60年后,我们现在有数据中心。今天,数据中心就是一个计算机。」 f36c9e27d6e348b6d22c1e6fae707065.jpeg 正如老黄所说,一种新的计算模式正在被创造。 e0ce444eccfb53a316873d2028b06f52.jpeg 为什么使用GPU胜过使用CPU? 老黄从配置上给出了分析:花费1000万美金成本,你可以建置一个有960颗CPU的数据中心,但这个数据中心要11GWh的功率,处理1X LMM(大语言模型)的数据量。 cdfdd4a52df9a0d3bec3a826b9a47ec3.jpeg 但一样的钱,你可以建置一个配备有48个GPU的数据中心,但只要3.2GWh的功耗,而且可以处理44X LLM的数据量。 fb127d74699a7f6981c5156d35b5a71d.jpeg 要知道,如此配置已经足够惊人。然而,这还不够。 为了获得极致性能,你可以在功耗不变的情况下,把GPU数量直接拉到172个。 此时的算力,可以高达CPU数据中心的150倍。当然,预算也提高到了3400万美元。 5d30f3f12791c1d1c5103dc4a1d88777.jpeg 此外,如果你就只是单纯地想完成手头的工作(1X LLM),老黄也帮你把成本打下来了—— 只需花40万美金,就能买一个搭载了2个GPU的数据中心,功耗仅0.13GWh。 b2eb757ae4bc8364180e091f2bf1145a.jpeg 台下响起一片掌声,老黄又拿出了口头禅「The more you buy,The more you save」,甚至重复了三遍。 这背后的策略,究竟是什么?老黄给了一个公式。 5e3ca408c068500dca9b6e7e1ec6e92e.jpeg

MGX:模块化架构

与此同时,老黄还推出了NVIDIA MGXTM,一个供系统制造商快速、低成本地构建100多个服务器变体的参考架构。 据称,这个规范可以将开发成本削减多达四分之三,并将开发时间缩短三分之二,仅需要6个月。 有了MGX,科技公司可以为他们的服务器优化加速计算的基本系统架构,然后选择自己的GPU,DPU和CPU。 MGX还可以很容易地集成到云和企业数据中心。 4a14d78e04fac3a33a4d402573f33fa0.jpeg 除了硬件之外,MGX还得到了英伟达完整软件栈的支持,这使得开发者和企业能够构建和加速 AI、 HPC 和其他应用程序。 这包括NVIDIA AI Enterprise,NVIDIA AI平台的软件层,其特点是有100多个框架、预训练的模型和开发工具,以加速人工智能和数据科学,为企业人工智能开发和部署提供充分支持。

将AI引入游戏,实时语音聊天的NPC角色来了

这次演讲的亮点,还有全新的定制AI模型代工服务 ——Avatar Cloud Engine (ACE) for Game。 现场,老黄右手手持一块RTX 4060 Ti,左手手持一台电脑,展示了运行实时光线追踪的Cyberpunk 2077。 在一个充满「赛博朋克」风格的拉面店场景中,玩家按下一个按钮,可以用自己的声音说话,然后店主Jin会进行回答。 Jin是一个NPC角色,但他的回答是由生成式AI根据玩家的语音输入实时生成的。Jin还有着逼真的面部动画和声音,与玩家的语气和背景故事相符。 6c8728521a090963a4b87838dea6c2e8.jpeg 这个逼真人物角色的生成,使用了一个实时人工智能模型渲染工具Nvidia Ace。 老黄表示,这个游戏中的角色并没有预先设定。他们有一个典型的任务提供者NPC类型。 86248473609e7b68123e44e16e82fb20.jpeg 但是从视频中,可以看到,虚拟角色的谈话有点生硬,但还不算太糟。

那些没有AI专业知识的人,将被抛弃

40年来,我们创造了PC、互联网、移动、云,现在是人工智能时代。 你会创造什么?不管是什么,都要像我们一样追赶它。要奔跑,不要走。要么是你为食物而奔跑,要么就是你任自己逃避,成为食物。
73edfaa365171900e65452b1b2f326c8.jpeg 5月27日,黄仁勋在台湾大学发表了毕业典礼演讲。 此刻,他正为全世界所瞩目。 瞬间变身万亿掌门人,让他的话更有底气。 黄仁勋表示,每个公司和个人都应该熟悉人工智能,否则,就有失败的危险。 f8bcbfb0599a27f83efaa75914e251fa.jpeg 他强调:敏捷的公司会利用人工智能提高自己的地位,这样的公司不会倒闭。 很多人担心,AI会抢走自己的工作,但真正会抢走你饭碗的,掌握了AI技术的人。 当时,他在演讲中预言:从各方面来看,AI的兴盛是计算机产业的再生契机。在下个十年,我们的产业将使用新型的AI电脑,取代价值万亿美元的传统电脑。 而从今天的演讲中,我们仿佛已经窥见了这种未来的雏形。





猜你喜欢

转载自blog.csdn.net/zhaomengsen/article/details/130953516