
老黃攜「超級 GPU」炸場!E 級 AI 超算性能飛昇,買越多越划算,谷歌微軟 Meta 搶先試用

AI 超級計算機 DGX GH200 燃爆市場,這台集成 256 顆 GH200 超級芯片的超算,擁有高達 1 exaflop 的超凡 AI 性能以及 144TB 的共享內存,在 GPT-3 訓練中比上一代 DGX H100 集羣快 2.2 倍。
今日的 COMPUTEX 大會上,英偉達 CEO 黃仁勳向全世界宣佈——
我們已經到達了生成式 AI 的引爆點。從此,全世界的每個角落,都會有計算需求。
股價剛剛暴漲 2000 億美元的英偉達,為這一刻早已做好準備。
一開場,身着黑皮衣的老黃慷慨激昂地走上舞台,「大家好!We’re back!」
隨後,便祭出大殺器——「超級 GPU」GH200,並宣佈谷歌雲、Meta 和微軟將率先獲得 GH200。
據稱,有超過 3500 人親臨現場,體驗了這個長達 2 個小時的激情演講。
時隔 4 年,闊別已久的老黃也是狂飆中文。
「超級芯片」GH200
要説,這次演講中,重頭戲還是在 GPU 上。畢竟 AI 的 iPhone 已經來臨。
老黃左右手分別端了一個芯片,重磅宣佈,「GH200 超級芯片」已經全面投產。
這一「超級 GPU」使用 NVLink-c2c 互連技術,將基於 ARM 節能的 GraceCPU 和高性能 NVIDIA H100 Tensor Core GPU 結合在一起,提供了高達 900GB/s 的總帶寬。
目前,由 GH200 加持的系統加入了 400 多種系統配置。
這些系統配置由英偉達最新的 CPU、 GPU 和 DPU 架構的不同組合提供動力。
其中包括 Grace、Hopper、Ada Lovelace 和 BlueField,這些架構的創建是為了滿足對生成式 AI 不斷增長的需求。
此外,老黃還宣佈了一個更重磅的:256 個 GH200 組成的超算來了。
超算 DGX GH200,今年上市
英偉達表示,全新 DGX GH200 人工智能超級計算平台,是專為大規模生成式 AI 的負載而設計。
這台由 256 塊 Grace Hopper 超級芯片組成的超算,將擁有高達 1 exaflop 的超凡 AI 性能,以及 144TB 的共享內存(比上一代 DGX A100 多了近 500 倍)。
舉個例子,在 GPT-3 訓練中,它能比上一代 DGX H100 集羣快 2.2 倍。
此外,這個龐然大物還包含了 150 英里的光纖和 2,000 多個風扇。
目前,英偉達已經與三大巨頭進行了合作,谷歌、 Meta 和微軟。
由於生成式人工智能的爆炸式增長,微軟、谷歌等巨頭希望擁有更強大、性能更好的系統。
而 DGX H200 的設計目的是,通過使用英偉達定製的 NVLink Switch 芯片,繞開 InfiniBand 和以太網等標準集羣連接的侷限性,為最大工作負載的大規模可擴展性提供最大的吞吐量。
另外,英偉達表示正在建造自己的大型 AI 超級計算機 NVIDIA Helios,預計在今年上線。
它將使用 4 個與 NVIDIA Quantum-2 InfiniBand 網絡連接的 DGX GH200 系統,以提高數據吞吐量,以訓練大型 AI 模型。
以往的數據中心都非常龐大,而且是基於 CPU 的,算法的迭代要花很長時間,大部分算法,也都是 CPU 中心的。
而現在,有了 Grace Hopper,只需要幾天甚至幾個小時,就能完成這個過程。簡直要把整個行業都革命掉了!
(等等,PaLM 的參數不是 540B 麼?)
老黃:買越多,越省錢!
作為現在的扛把子,這樣一個重 65 磅,價值 200000 美元的 H100 計算機,是世界上第一個搭載了 Transformer Engine,也是目前全世界最昂貴的計算機。
老黃表示,可以説,像這樣的產品,你買得越多,就省得越多。
接下來,老黃提到 1964 年的 IBM 360,強調了 CPU 的重要性。
老黃自信地重複表示,「而 60 年後,我們現在有數據中心。今天,數據中心就是一個計算機。」
正如老黃所説,一種新的計算模式正在被創造。
為什麼使用 GPU 勝過使用 CPU?
老黃從配置上給出了分析:花費 1000 萬美金成本,你可以建置一個有 960 顆 CPU 的數據中心,但這個數據中心要 11GWh 的功率,處理 1X LMM(大語言模型)的數據量。
但一樣的錢,你可以建置一個配備有 48 個 GPU 的數據中心,但只要 3.2GWh 的功耗,而且可以處理 44X LLM 的數據量。
要知道,如此配置已經足夠驚人。然而,這還不夠。
為了獲得極致性能,你可以在功耗不變的情況下,把 GPU 數量直接拉到 172 個。
此時的算力,可以高達 CPU 數據中心的 150 倍。當然,預算也提高到了 3400 萬美元。
此外,如果你就只是單純地想完成手頭的工作(1X LLM),老黃也幫你把成本打下來了——
只需花 40 萬美金,就能買一個搭載了 2 個 GPU 的數據中心,功耗僅 0.13GWh。
台下響起一片掌聲,老黃又拿出了口頭禪「The more you buy,The more you save」,甚至重複了三遍。
這背後的策略,究竟是什麼?老黃給了一個公式。
MGX:模塊化架構
與此同時,老黃還推出了 NVIDIA MGXTM,一個供系統製造商快速、低成本地構建 100 多個服務器變體的參考架構。
據稱,這個規範可以將開發成本削減多達四分之三,並將開發時間縮短三分之二,僅需要 6 個月。
有了 MGX,科技公司可以為他們的服務器優化加速計算的基本系統架構,然後選擇自己的 GPU,DPU 和 CPU。
MGX 還可以很容易地集成到雲和企業數據中心。
除了硬件之外,MGX 還得到了英偉達完整軟件棧的支持,這使得開發者和企業能夠構建和加速 AI、 HPC 和其他應用程序。
這包括 NVIDIA AI Enterprise,NVIDIA AI 平台的軟件層,其特點是有 100 多個框架、預訓練的模型和開發工具,以加速人工智能和數據科學,為企業人工智能開發和部署提供充分支持。
將 AI 引入遊戲,實時語音聊天的 NPC 角色來了
這次演講的亮點,還有全新的定製 AI 模型代工服務 ——Avatar Cloud Engine (ACE) for Game。
現場,老黃右手手持一塊 RTX 4060 Ti,左手手持一台電腦,展示了運行實時光線追蹤的 Cyberpunk 2077。
在一個充滿「賽博朋克」風格的拉麪店場景中,玩家按下一個按鈕,可以用自己的聲音説話,然後店主 Jin 會進行回答。
Jin 是一個 NPC 角色,但他的回答是由生成式 AI 根據玩家的語音輸入實時生成的。Jin 還有着逼真的面部動畫和聲音,與玩家的語氣和背景故事相符。
這個逼真人物角色的生成,使用了一個實時人工智能模型渲染工具 Nvidia Ace。
老黃表示,這個遊戲中的角色並沒有預先設定。他們有一個典型的任務提供者 NPC 類型。
但是從視頻中,可以看到,虛擬角色的談話有點生硬,但還不算太糟。
那些沒有 AI 專業知識的人,將被拋棄
40 年來,我們創造了 PC、互聯網、移動、雲,現在是人工智能時代。
你會創造什麼?不管是什麼,都要像我們一樣追趕它。要奔跑,不要走。要麼是你為食物而奔跑,要麼就是你任自己逃避,成為食物。
5 月 27 日,黃仁勳在台灣大學發表了畢業典禮演講。
此刻,他正為全世界所矚目。
瞬間變身萬億掌門人,讓他的話更有底氣。
黃仁勳表示,每個公司和個人都應該熟悉人工智能,否則,就有失敗的危險。
他強調:敏捷的公司會利用人工智能提高自己的地位,這樣的公司不會倒閉。
很多人擔心,AI 會搶走自己的工作,但真正會搶走你飯碗的,掌握了 AI 技術的人。
當時,他在演講中預言:從各方面來看,AI 的興盛是計算機產業的再生契機。在下個十年,我們的產業將使用新型的 AI 電腦,取代價值萬億美元的傳統電腦。
而從今天的演講中,我們彷彿已經窺見了這種未來的雛形。
本文來源:新智元,原文標題:《老黃攜「超級 GPU」炸場!E 級 AI 超算性能飛昇,買越多越划算,谷歌微軟 Meta 搶先試用》
