NVIDIA launches new AI chip H200, performance soars, stock price expected to rise for the ninth consecutive time.

華爾街見聞
2023.11.13 15:38
portai
I'm PortAI, I can summarize articles.

英偉達對其火爆的 H100 GPU 進行重磅升級,以鞏固市場主導地位。英偉達推出 H200 新款 GPU,具備使用 HBM3e 高帶寬內存的能力,集成 141GB 內存,在 Llama 2 上的推理速度比 H100 快一倍。大型計算機制造商和雲服務提供商預計明年二季度開始使用。

北京時間週一晚,英偉達發佈下一代人工智能超算芯片。

英偉達對其火爆的 H100 人工智能 GPU 進行了重磅升級,最新款高端芯片名為 H200,基於英偉達的 “Hopper” 架構,是該公司第一款使用 HBM3e 高帶寬內存的 GPU,這種內存速度更快、容量更大,因此更適合處理大型數據集,而這是開發大型語言模型所必需的。

英偉達公司表示,基於 HBM3e,H200 以每秒 4.8 TB 的速度提供 141GB 的內存,與 A100 相比,容量幾乎是其兩倍、帶寬增加了 2.4 倍。

在備受矚目的人工智能領域,英偉達提到,H200 將帶來進一步的性能飛躍。在 Llama 2(700 億參數的 LLM)上的推理速度比 H100 快了一倍。未來的軟件更新預計會給 H200 帶來額外的性能領先優勢和改進。

H200 將在具有四路和八路配置的英偉達 HGX H200 服務器主板中提供,並與 HGX H100 系統的硬件和軟件兼容。

大型計算機制造商和雲服務提供商預計將於明年第二季度開始使用 H200。亞馬遜的 AWS、Alphabet 公司的谷歌雲和甲骨文的雲基礎設施,都承諾從明年開始使用這款新芯片。

英偉達負責超大規模和高性能計算的副總裁 Ian Buck 表示,“要通過生成式 AI 和高性能計算 HPC 應用程序來創建智能,必須使用大型、快速的 GPU,高速有效地處理大量數據。藉助 H200,業界領先的端到端 AI 超級計算平台能夠更快地解決世界上一些最重要的挑戰。”

英偉達表示,通過新產品,公司正試圖跟上用於創建人工智能模型和服務的數據集的規模。添加增強的內存能力將使 H200 在用數據轟炸軟件時速度更快,也即訓練 AI 執行圖像識別和語音等任務的過程。媒體援引英偉達數據中心產品的負責人的話説,“當你觀察市場上正在發生的事情時,你會發現模型正在迅速擴大。這是我們繼續迅速推出最新、最先進技術的又一個例子。”

英偉達早盤一度追隨美股大盤小幅下跌,盤中急速拉漲,上漲約 1.4%,有望連續第九個交易日上漲。

伴隨着人工智能的火爆,英偉達的高端 GPU 需求量極大。這也令其他芯片製造商瞄準這一利潤豐厚的市場,加快推出高品質的 AI 芯片,整個 AI 芯片市場競爭相當激烈。英偉達此舉旨在鞏固其在 AI 計算市場的主導地位。

AMD 將於本季度推出 MI300 芯片,AMD 透露,已有多家超大規模雲服務商承諾將部署 MI300 芯片產品。華爾街見聞網站此前提及,業內人士透露,擁有更大顯存的 MI300,在部署 32K 上下文窗口的 GPT-4 模型時效果更好。具體來説,與 H100 相比,MI300 的性能優勢在 20%-25%,具體取決於上下文長度和提示長度/每次查詢輸出的 token 數量。

此外,英特爾公司聲稱其 AI 芯片 Gaudi 2 比 H100 更快。

近日市場還關注的熱點是,英偉達已開發出針對中國市場的最新改良版系列芯片——HGXH20、L20PCle 和 L2PCle。據澎湃新聞,有知情人士稱,最新三款芯片是由 H100 改良而來。英偉達最快或將於本月 16 號之後公佈,國內廠商最快將在這幾天拿到產品。多位產業鏈人士均證實英偉達改良版芯片屬實。

對此,環球時報評論文章稱,有人説,美國政府和英偉達展開了一場限制與反限制的 “貓鼠遊戲”。從表面上看好像是這樣,但這個比喻模糊了問題的本質,也混淆了是非。英偉達和美國政府的這幾個回合,是一個正當做生意的高科技企業,遭遇來自政治對自由貿易的強力干擾、束縛和破壞,為了自己的生存與發展想盡辦法的故事。對商業公司來説,這一點也不搞笑,甚至有些悲哀。美國對華的芯片出口管制措施是沒道理的,它不僅對中國利益有害,也對美國利益有害,已經有越來越多的人看到這一點,並希望華盛頓作出調整。

英偉達將於下週公佈財報。今年其 AI GPU 廣受歡迎,推動了該公司業績的井噴。市場預計英偉達本財報季的收入將激增 170%。