Self-developed AI chips are sweeping through major companies! Meta Platforms plans to deploy self-developed chips this year, focusing on AI inference.

智通財經
2024.02.02 04:35

Meta Platforms 計劃今年在其數據中心部署一款新版本的定製化 AI 芯片,以減少對英偉達旗下昂貴 AI 芯片的依賴。這將幫助他們節省能源和芯片採購成本,支持其人工智能技術的發展。此舉也是谷歌和微軟選擇自研 AI 芯片的原因之一。Meta 一直在提升計算能力以支持其生成式 AI 產品,包括 Meta AI、Ray-Ban 智能眼鏡等。Meta 已經斥資數十億美元積累了大量 AI 芯片,並重新配置了數據中心。此舉將在一定程度上抵消 AI 技術帶來的巨大成本。

智通財經 APP 獲悉,社交媒體 Facebook 和 Instagram 母公司 Meta Platforms(META.US) 計劃今年在其數據中心部署一款新版本的定製化 AI 芯片,旨在支持其人工智能 (AI) 技術發展。這款芯片是 Meta 去年宣佈的 “第二代內部芯片生產線”,可能有助於減少對佔據 AI 芯片市場主導地位的英偉達 (NVDA.US) 旗下昂貴 AI 芯片的重度依賴——這也是谷歌和微軟選擇自研 AI 芯片的原因之一,並在 Meta 計劃推出新的人工智能產品之際,控制與運行人工智能訓練/推理工作負載相關的不斷上升的成本。

這家全球最大規模的社交媒體公司一直在不斷提升計算能力,以支持對算力和電力消耗極高的生成式人工智能產品,該科技巨頭正在將其開發的生成式 AI 產品 Meta AI 推向全球的 Facebook、Instagram 和 WhatsApp 等 Meta 家族應用程序,以及 Ray-Ban 智能眼鏡等硬件設備。Meta 已經斥資數十億美元積累了大量 AI 芯片,比如英偉達 H100,並重新配置了數據中心以適應這些芯片。

硅研究集團 SemiAnalysis 的創始人迪倫•帕特爾 (Dylan Patel) 表示,以 Meta 的運營規模,成功部署自己的 AI 芯片,每年可能將節省數億美元的能源成本和數十億美元的芯片採購成本。

運行 ChatGPT 等生成式人工智能應用所需的芯片、基礎設施和能源已經成為科技公司投資的 “巨大天坑”,在一定程度上抵消了圍繞這項技術的興奮熱潮所帶來的收益。

科技巨頭們紛紛擁抱自研 AI 芯片

Meta 的一位發言人證實了將於 2024 年投產的計劃,稱該芯片將與該公司正在購買的數十萬個現成英偉達 H100 等 AI 芯片協同工作。該發言人在一份聲明中表示:“我們認為,我們內部開發的 AI 加速器在為 Meta 特定的 AI 工作負載提供最佳的性能和效率組合方面,將與市售的商用 AI 芯片形成高度互補。”

Meta 首席執行官馬克·扎克伯格在上個月曾表示,該公司計劃在今年年底前擁有大約 35 萬顆來自英偉達的旗艦 AI 芯片——H100,這是英偉達研發的當前全球最受歡迎的用於人工智能工作負載的服務器 GPU。他在當時強調,與自研版全新 AI 芯片以及其他潛在供應商的 AI 芯片加起來後,Meta 將累積等效於 60 萬個 H100 AI 芯片的計算能力。

作為該計劃的一部分,部署自己的自研 AI 芯片對 Meta 的內部人工智能芯片項目來説是一個積極的轉折,此前該公司高管在 2022 年決定停止該芯片的 “第一次迭代”。

相反,該公司選擇購買價值數十億美元的英偉達 AI 芯片,後者在一個名為 “訓練” 的人工智能負載工作過程中幾乎佔據壟斷地位,該過程涉及將大量數據集輸入模型,教它們如何執行任務。由於英偉達 AI 芯片的獨有架構,英偉達 H100 等芯片在推理領域同樣能夠勝任,但是推理領域算力要求遠不及訓練端,因此在推理領域面臨的競爭對手相對較多。

相比於英偉達或者 AMD 的通用型 AI 芯片,自研 AI 芯片,也被稱作 ASIC,往往更適合科技公司本身的人工智能工作負載需求且成本較低。

比如,雲計算巨頭微軟和亞馬遜選擇自研 AI 芯片主要是為了優化特定 AI 計算任務的性能和成本效率,同時減少對英偉達等外部供應商的依賴。自研 AI 芯片往往能夠更好地整合進公司的雲計算平台和服務中,提供定製化的解決方案以滿足特定的業務需求。

全球第一大公有云巨頭——亞馬遜旗下的 AWS 近期宣佈推出為生成式 AI 和機器學習訓練而設計全新自研 AI 芯片 AWS Trainium2,性能比上一代芯片提高到 4 倍,可提供 65ExaFlops 超算性能。微軟近期宣佈推出第一款定製的自研 CPU 系列 Azure Cobalt 和 AI 加速芯片 Azure Maia,後者是微軟首款人工智能芯片,主要針對大語言模型訓練,預計將於年初開始在微軟 Azure 數據中心推出,該數據中心還將結合英偉達最新款 AI 加速器。另一大雲巨頭谷歌近期宣佈推出新版本的 TPU 芯片 TPU v5p,旨在大幅縮減訓練大語言模型時間投入,v5p 是 2023 年早些時候全面推出的 Cloud TPU v5e 的更新版本。

Meta 自研版全新 AI 芯片聚焦推理端

相較於 AI 訓練,AI 推理領域對於 “海量數據轟炸” 應用背景下的 GPU 並行化算力需求遠遠不及訓練領域,推理進程涉及應用已經訓練好的模型來進行決策或識別,極度擅長複雜邏輯處理任務和控制流任務的以 CPU 為核心的中央處理器足以高效率地應付諸多推理場景。

從產業發展趨勢來看,AI 算力負載大概率將逐步從訓練全面向推理端遷移,這意味着 AI 芯片門檻可能將顯著降低,覆蓋可穿戴設備、電動汽車以及物聯網等領域的芯片公司未來有望全面滲透至 AI 推理芯片領域。

華爾街大行摩根士丹利在 2024 年十大投資策略主題中指出,隨着消費類邊緣設備在數據處理、存儲端和電池續航方面的大幅改進,2024 年將有更多催化劑促使邊緣 AI 這一細分領域迎頭趕上,AI 行業的發展重點也將從 “訓練” 全面轉向 “推理”。

邊緣 AI 是指在端側設備 (如 PC、智能手機、IoT 設備和汽車等) 上直接進行 AI 數據流處理的技術。市場研究機構 Gartner 預計到 2025 年,50% 企業數據將在邊緣端創建,跨越數十億台設備。這意味着 AI 大模型的推理 (即應用模型進行決策或識別的過程) 有望批量在端側設備進行,而不是在遠程服務器或雲端。

高通 CEO Amon 則指出,芯片製造商們的主要戰場不久後將由 “訓練” 轉向 “推理”。Amon 在近日接受採訪時表示:“隨着 AI 大模型變得更精簡、能夠在設備上運行並專注於推理任務,芯片製造商的主要市場將轉向 ‘推理’,即模型應用。預計數據中心也將對專門用於已訓練模型推理任務的處理器產生興趣,一切都將助力推理市場規模超越訓練市場。”

據瞭解,Meta 的這款全新自研 AI 芯片內部被稱為 “Artemis”,和它的前身一樣,只能執行一個被稱為 “推理” 的人工智能負載工作過程,在這個過程中,模型被要求使用它們的算法來做出排名判斷等響應,並對用户的提示做出回應。

有媒體曾在去年報道稱,Meta 正在開發一款更有雄心的芯片,像英偉達 H100 一樣,能夠同時進行訓練和推理。

這家總部位於加州門洛帕克的科技巨頭曾於去年曾分享了第一代 Meta 訓練和推理加速器 (MTIA) 項目的相關細節。但是這一公告僅僅將該版本的芯片描述為一個學習機會。該計劃此後並未被 Meta 提及。

帕特爾表示,儘管早期出現了一些難以解決的問題,但在處理 Meta 的推薦模型等推理功能時,推理領域的 AI 芯片可能比耗電的英偉達 H100 等芯片要高效得多。“因此,大量的資金和電力將有望全面節省下來。”