英偉達獨霸時代結束?ChatGPT 引爆谷歌微軟芯片大戰,亞馬遜也入局

華爾街見聞
2023.05.09 13:31
portai
I'm PortAI, I can summarize articles.

ChatGPT 引爆了芯片界 “百家爭鳴”,谷歌、微軟、亞馬遜紛紛入局芯片大戰,英偉達恐怕不再一家獨大。

ChatGPT 爆火之後,谷歌和微軟兩巨頭的 AI 大戰戰火,已經燒到了新的領域——服務器芯片。

如今,AI 和雲計算都成了必爭之地,而芯片,也成為降低成本、贏得商業客户的關鍵。

原本,亞馬遜、微軟、谷歌這類大廠,都是以軟件而聞名的,而現在,它們紛紛斥資數十億美元,用於芯片開發和生產。

各大科技巨頭研發的 AI 芯片

ChatGPT 爆火,大廠開啓芯片爭霸賽

根據外媒 The Information 的報道以及其他來源,這三家大廠現在已經推出或計劃發佈 8 款服務器和 AI 芯片,用於內部產品開發、雲服務器租賃或者二者兼有。

「如果你能製造出針對 AI 進行優化的硅,那前方等待你的將是巨大的勝利」,研究公司 Forrester 的董事 Glenn O’Donnell 這樣説。

付出這些巨大的努力,一定會得到回報嗎?

答案是,並不一定。

英特爾、AMD 和英偉達可以從規模經濟中獲益,但對大型科技公司來説,情況遠非如此。

它們還面臨着許多棘手的挑戰,比如需要聘請芯片設計師,還要説服開發者使用他們定製的芯片構建應用程序。

不過,大廠們已經在這一領域取得了令人矚目的進步。

根據公佈的性能數據,亞馬遜的 Graviton 服務器芯片,以及亞馬遜和谷歌發佈的 AI 專用芯片,在性能上已經可以和傳統的芯片廠商相媲美。

亞馬遜、微軟和谷歌為其數據中心開發的芯片,主要有這兩種:標準計算芯片和用於訓練和運行機器學習模型的專用芯片。正是後者,為 ChatGPT 之類的大語言模型提供了動力。

此前,蘋果成功地為 iPhone,iPad 和 Mac 開發了芯片,改善了一些 AI 任務的處理。這些大廠,或許正是跟蘋果學來的靈感。

在三家大廠中,亞馬遜是唯一一家在服務器中提供兩種芯片的雲服務商,2015 年收購的以色列芯片設計商 Annapurna Labs,為這些工作奠定了基礎。

谷歌在 2015 年推出了一款用於 AI 工作負載的芯片,並正在開發一款標準服務器芯片,以提高谷歌雲的服務器性能。

相比之下,微軟的芯片研發開始得較晚,是在 2019 年啓動的,而最近,微軟更加快了推出專為 LLM 設計的 AI 芯片的時間軸。

而 ChatGPT 的爆火,點燃了全世界用户對於 AI 的興奮。這更促進了三家大廠的戰略轉型。

ChatGPT 運行在微軟的 Azure 雲上,使用了上萬塊英偉達 A100。無論是 ChatGPT,還是其他整合進 Bing 和各種程序的 OpenAI 軟件,都需要如此多的算力,以至於微軟已經為開發 AI 的內部團隊分配了服務器硬件。

在亞馬遜,首席財務官 Brian Olsavsky 在上週的財報電話會議上告訴投資者,亞馬遜計劃將支出從零售業務轉移到 AWS,部分原因是投資於支持 ChatGPT 所需的基礎設施。

在谷歌,負責製造張量處理單元的工程團隊已經轉移到谷歌雲。據悉,雲組織現在可以為 TPU 和在其上運行的軟件制定路線圖,希望讓雲客户租用更多 TPU 驅動的服務器。

谷歌:為 AI 特調的 TPU V4

早在 2020 年,谷歌就在自家的數據中心上部署了當時最強的 AI 芯片——TPU v4。

不過直到今年的 4 月 4 日,谷歌才首次公佈了這台 AI 超算的技術細節。

相比於 TPU v3,TPU v4 的性能要高出 2.1 倍,而在整合 4096 個芯片之後,超算的性能更是提升了 10 倍。

同時,谷歌還聲稱,自家芯片要比英偉達 A100 更快、更節能。對於規模相當的系統,TPU v4 可以提供比英偉達 A100 強 1.7 倍的性能,同時在能效上也能提高 1.9 倍。

對於相似規模的系統,TPU v4 在 BERT 上比 A100 快 1.15 倍,比 IPU 快大約 4.3 倍。對於 ResNet,TPU v4 分別快 1.67 倍和大約 4.5 倍。

另外,谷歌曾暗示,它正在研發一款與 Nvidia H100 競爭的新 TPU。谷歌研究員 Jouppi 在接受路透社採訪時表示,谷歌擁有「未來芯片的生產線」。

微軟:秘密武器雅典娜

不管怎麼説,微軟在這場芯片紛爭中,依舊躍躍欲試。

此前有消息爆出,微軟秘密組建的 300 人團隊,在 2019 年時就開始研發一款名為「雅典娜」(Athena)的定製芯片。

根據最初的計劃,「雅典娜」會使用台積電的 5nm 工藝打造,預計可以將每顆芯片的成本降低 1/3。

如果在明年能夠大面積實裝,微軟內部和 OpenAI 的團隊便可以藉助「雅典娜」同時完成模型的訓練和推理。

這樣一來,就可以極大地緩解專用計算機緊缺的問題。

彭博社在上週的報道中,稱微軟的芯片部門已與 AMD 合作開發雅典娜芯片,這也導致 AMD 的股價在週四上漲了 6.5%。

但一位知情者表示,AMD 並未參與其中,而是在開發自己的 GPU,與英偉達競爭,並且 AMD 一直在與微軟討論芯片的設計,因為微軟預計要購買這款 GPU。

亞馬遜:已搶跑一個身位

而在與微軟和谷歌的芯片競賽中,亞馬遜似乎已經領先了一個身位。

在過去的十年中,亞馬遜在雲計算服務方面,通過提供更加先進的技術和更低的價格,一直保持了對微軟和谷歌的競爭優勢。

而未來十年內,亞馬遜也有望通過自己內部開發的服務器芯片——Graviton,繼續在競爭中保持優勢。

作為最新一代的處理器,AWS Graviton3 在計算性能上比上一代提高多達 25%,浮點性能提高多達 2 倍。並支持 DDR5 內存,相比 DDR4 內存帶寬增加了 50%。

針對機器學習工作負載,AWS Graviton3 比上一代的性能高出多達 3 倍,並支持 bfloat16。

基於 Graviton 3 芯片的雲服務在一些地區非常受歡迎,甚至於達到了供不應求的狀態。

亞馬遜另一方面的優勢還表現在,它是目前唯一一家在其服務器中提供標準計算芯片(Graviton)和 AI 專用芯片(Inferentia 和 Trainium)雲供應商。

早在 2019 年,亞馬遜就推出了自己的 AI 推理芯片——Inferentia。

它可以讓客户可以在雲端低成本運行大規模機器學習推理應用程序,例如圖像識別、語音識別、自然語言處理、個性化和欺詐檢測。

而最新的 Inferentia 2 更是在計算性能提高了 3 倍,加速器總內存擴大了 4 倍,吞吐量提高了 4 倍,延遲降低到 1/10。

在初代 Inferentia 推出之後,亞馬遜又發佈了其設計的主要用於 AI 訓練的定製芯片——Trainium。

它對深度學習訓練工作負載進行了優化,包括圖像分類、語義搜索、翻譯、語音識別、自然語言處理和推薦引擎等。

在一些情況下,芯片定製不僅僅可以把成本降低一個數量級,能耗減少到 1/10,並且這些定製化的方案可以給客户以更低的延遲提供更好的服務。

撼動英偉達的壟斷,沒那麼容易

不過到目前為止,大多數的 AI 負載還是跑在 GPU 上的,而英偉達生產了其中的大部分芯片。

據此前報道,英偉達獨立 GPU 市場份額達 80%,在高端 GPU 市場份額高達 90%。

20 年,全世界跑 AI 的雲計算與數據中心,80.6% 都由英偉達 GPU 驅動。21 年,英偉達表示,全球前 500 個超算中,大約七成是由自家的芯片驅動。

而現在,就連運行 ChatGPT 的微軟數據中心用了上萬塊英偉達 A100 GPU。

一直以來,不管是成為頂流的 ChatGPT,還是 Bard、Stable Diffusion 等模型,背後都是由每個大約價值 1 萬美元的芯片英偉達 A100 提供算力。

不僅如此,A100 目前已成為人工智能專業人士的「主力」。2022 人工智能現狀報告還列出了使用 A100 超級計算機部分公司的名單。

顯而易見,英偉達已經壟斷了全球算力,憑藉自家的芯片,一統江湖。

根據從業者的説法,相比於通用芯片,亞馬遜、谷歌和微軟一直在研發的專用集成電路(ASIC)芯片,在執行機器學習任務的速度更快,功耗更低。

O’Donnell 董事在比較 GPU 和 ASIC 時,用了這樣一個比較:「平時開車,你可以用普鋭斯,但如果你必須在山上用四輪驅動,用吉普牧馬人就會更合適。」

然而儘管已經做出了種種努力,但亞馬遜、谷歌和微軟都面臨着挑戰——如何説服開發者使用這些 AI 芯片呢?

現在,英偉達的 GPU 是占主導地位的,開發者早已熟悉其專有的編程語言 CUDA,用於製作 GPU 驅動的應用程序。

如果換到亞馬遜、谷歌或微軟的定製芯片,就需要學習全新的軟件語言了,他們會願意嗎?

本文作者:新智元,本文來源:新智元,原文標題:《英偉達獨霸時代結束?ChatGPT 引爆谷歌微軟芯片大戰,亞馬遜也入局》

風險提示及免責條款
市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。