
英偉達發佈新 “核彈”,谷歌聊天機器人也來了,算力股再度上演漲停潮

安信證券指出,ChatGPT、GPT4.0、Microsoft 365 Copilot、文心一言、谷歌 Bird 等相繼發佈,以 ChatGPT 為代表的 AI 大模型及其初步應用 “一石激起千層浪”,類比 19 世紀末的美國西部 “淘金熱” 對鏟子、牛仔褲的大量需求,以 GPGPU 為代表的算力基礎設施作為 AI 大模型底座將長期穩定受益。
3 月 22 日,算力股(數據中心、AI 芯片、CPO 等)再次大幅走強。
消息面上,隔夜英偉達發佈了 ChatGPT 專用 GPU,號稱將推理速度提升了 10 倍。
另外近幾日,因訪問量大增,ChatGPT 全球各地的用户紛紛發現網站彈出報錯警告,即使是有特權的 Plus 賬户也未能倖免。
安信證券最新研報對 GPT-4 算力需求做了推論:GPT-4 由於複雜度提升、圖片識別功能加入,其推測算力需求增至十倍以上。
英偉達發佈 ChatGPT 專用 GPU,推理速度提升 10 倍
據澎湃新聞新聞報道,北京時間 3 月 21 日,英偉達 CEO 黃仁勳在 2023 年 GTC 開發者大會上宣佈了專為 ChatGPT 設計的推理 GPU(圖形處理器)H100 NVL,它將英偉達的兩個 H100 GPU 拼接在一起,以部署像 ChatGPT 這樣的大型語言模型(LLM)。
黃仁勳表示,當前唯一可以實際處理 ChatGPT 的 GPU 是英偉達 HGX A100,與前者 A100 相比,現在一台搭載四對 H100 和雙 NVLINK 的標準服務器速度能快 10 倍,可以將大語言模型的處理成本降低一個數量級。
除定製芯片外,英偉達還發布了突破性的光刻計算庫 cuLitho,英偉達宣佈,經過與台積電、ASML、新思科技等公司多年的合作,推出全新的計算光刻應用,大大降低芯片代工廠在這一工序上所消耗的時間和能耗,為 2nm 以及更先進製程的到來做好準備。
此外,英偉達還發布了 AI 超級計算服務 DGX Cloud、加速企業創建大模型和生成式 AI 的雲服務 NVIDIA AI Foundations 等,以及與 Quantum Machines 合作推出了全球首個 GPU 加速量子計算系統。
黃仁勳表示,眼下整個 AI 產業正處於 “iPhone 時刻”——創業公司正在競相建立顛覆式的商業模型,而業界巨頭也在尋找應對之道,更是放出豪言——英偉達就是要做 AI 圈的台積電!
國內方面,黃仁勳表示,在中國,其有特別定製的 Ampere 和 Hopper 芯片,這些會通過中國雲提供商,比如阿里巴巴、騰訊、百度這些企業提供落地的能力,完全相信他們有能力去提供頂級的系統服務,對於中國初創公司一定會有機會來開發自己的大語言模型。
谷歌聊天機器人也來了,AI大模型引領算力層長期受益
當地時間 3 月 21 日週二,美國科技巨頭谷歌公司推出了 AI 聊天機器人Bard 的測試版本,以期與 OpenAI 的 ChatGPT 展開競爭。
Bard 將與其谷歌搜索引擎分開運行,目前僅以英語生成答案,目前以先到先得的方式向候補名單的用户提供訪問權限。谷歌稱隨着時間的推移,Bard 將適配更多的語言以及推廣到更多的地區。
安信證券指出,ChatGPT、GPT4.0、Microsoft 365 Copilot、文心一言、谷歌 Bird 等相繼發佈,以 ChatGPT 為代表的 AI 大模型及其初步應用 “一石激起千層浪”.
其表示,隨着多模態大模型 GPT-4 的發佈,基於文字、圖片等垂直場景的應用步伐有望 “從 1 到 10” 加速,類似於移動互聯網時代各類型 APP 的百花齊放,其競爭格局也會逐步加劇。而類比 19 世紀末的美國西部 “淘金熱” 對鏟子、牛仔褲的大量需求,其認為以 GPGPU 為代表的算力基礎設施作為AI大模型底座將長期穩定受益。
GPT4 算力需求增至十倍以上
安信證券最新研報對 GPT-4 算力需求及未來趨勢做了推論:GPT-4 由於複雜度提升、圖片識別功能加入,其推測算力需求增至十倍以上。
其表示,OpenAI 首席執行官 Sam Altman 接受公開採訪指出,GTP-4 參數量為 GTP-3 的 20 倍,需要的計算量為 GTP-3 的 10 倍;GTP-5 在 2024 年底至 2025 年發佈,它的參數量為 GTP-3 的 100 倍,需要的計算量為 GTP-3 的 200-400 倍。
算力的瓶頸並不體現在算力的絕對大小,而在於實現該算力的成本,從成本的角度,國信證券也對此作了測算,其根據根據 GPT-4 的公開數據,8K 的上下文長度下,每 1000 個 token 的提問成本為 0.03 美金,每 1000 個 token 的回答完成成本為 0.06 美金;32K 的上下文長度下,每 1000 個 token 的提問成本為 0.06 美金,每 1000 個 token 的回答完成成本為 0.12 美金。
其表示,這個算力成本相比與 GPT-3 的成本(每 1000 個 tokens 的算力成本約為 0.02 美金)上升了較高(輸入成本增加 50%-200%,輸出升本增加 200%-500%),相比於 GPT-3.5-turbo 的成本上升更為可觀,輸入成本增長了 14-29 倍,輸出成本增長了 29-59 倍。
此外,AI 服務器市場的擴容,同步帶動高速網卡、HBM、DRAM、NAND、PCB等需求提升。同時圍繞解決大算力場景下 GPU“功耗牆、內存牆” 問題的相關技術不斷升級,如存算一體、硅光/CPO產業化進程有望提速;先進製程芯片演進中已有的 Chiplet 等技術路徑也將受益;Risk-V 由於開源免費、開發者自由度高、自主可控度高、更適應 AIoT 處理器架構需求等優勢,帶動圍繞 AI 場景的參與企業數量提升。
