Snowflake integrates with Nvidia to speed AI/ML workloads

TechTarget News
2025.11.19 17:11

Snowflake 已將 Nvidia 的 CUDA-X 數據科學庫集成到其 Snowflake ML 平台中,以增強人工智能和機器學習工作負載。這一集成旨在通過利用 GPU 實現更快的處理,從而提高性能並簡化開發。分析師強調這一舉措對 Snowflake 用户的重要性,使其能夠獲得更好的性能和操作簡便性。該集成解決了隨着企業數據集擴展而日益增長的高效人工智能和機器學習開發的需求。Snowflake 與 Nvidia 的合作被視為一種戰略創新,使其在市場上與其他供應商區分開來

Snowflake 為開發者構建 AI 代理和其他商業應用添加了新工具。

這家數據雲供應商於 11 月 18 日推出了與 Nvidia 的原生集成,將 Nvidia 的 CUDA-X 數據科學 庫嵌入到 Snowflake ML(機器學習)中。CUDA-X 是一系列數據科學工具包,基於 Nvidia 的 CUDA 平台構建,支持並行處理的 GPU。它旨在提高 AI、ML 和其他高級應用的性能。

通過預安裝與 CPU 協同工作的 GPU 模板,Snowflake 與 Nvidia 之間的集成旨在加速和簡化在 Snowflake ML 中開發 AI 和 ML 模型的過程。

速度的需求

AI 應用程序,如代理,所需的 高質量數據 比傳統分析產品(如報告和儀表板)要多得多,以確保準確性。因此,現在用於指導商業決策的工具的數據集顯著大於過去。

為了處理如此龐大的數據集,使用處理能力大於 CPU 的 GPU 來指數級加速工作負載。因此,Snowflake 與 Nvidia 的 CUDA-X 庫的原生集成對於構建 AI 工具和其他高級應用的開發者來説是一個寶貴的補充,Informa TechTarget 的 Omdia 分析師 Stephen Catanzano 表示。

他説:“這一集成對 Snowflake 用户至關重要,因為它使他們能夠實現更好的性能提升。這樣,數據科學家可以處理計算要求高的任務,如大規模主題建模和計算基因組學,這些任務在 CPU 上可能需要數小時,但現在可以在 GPU 上在幾分鐘內完成。”

這使數據科學家能夠處理計算要求高的任務,如大規模主題建模和計算基因組學,這些任務在 CPU 上可能需要數小時,但現在可以在 GPU 上在幾分鐘內完成。Stephen Catanzano Omdia 分析師

Constellation Research 的分析師 Michael Ni 同樣稱這一集成為 Snowflake 用户帶來了 “重要” 的影響,因為它提高了開發速度。

他説:“它將 GPU 級加速引入了受管控的 Snowflake 執行環境,消除了會拖慢 ML 團隊的交接。這使得 Snowflake 的產品從 ‘倉庫加 ML’ 擴展到 ‘倉庫加 GPU 計算加 ML 平台’,與市場上的其他產品一起鞏固了數據和 AI 平台市場。”

Snowflake 的 AI 和 ML 產品負責人 Vinay Sridhar 指出,客户一直在推動改進大規模 ML 工作負載性能的工具。儘管 Snowflake 知道客户的反饋,但與 Nvidia 的新集成主要是出於對更好工作負載性能的日益需求,因為 AI 和 ML 開發持續上升。

OpenAI 於 2022 年 11 月推出的 ChatGPT 代表了生成 AI (GenAI) 技術的重大進步,並激發了對 AI 開發的強烈興趣。自主代理 是 AI 進化的最新成果,企業繼續增加對 AI 開發的投資。

Sridhar 説:“新的集成……源於明確的技術和市場需求。隨着企業數據集的指數增長,GPU 加速對於保持生產力和控制成本至關重要。因此,儘管客户確實在推動更快的性能,但這一合作關係主要源於 Snowflake 的長期願景,即使每個企業通過數據和 AI 實現其全部潛力。”

根據 Sridhar 的説法,處理時間從小時減少到分鐘,Snowflake 用户可以通過新的集成加速 AI 和 ML 工作流,同時保留現有代碼。

Sridhar 説:“這意味着團隊可以專注於構建模型和發現洞察,而不是管理複雜的基礎設施。”

與此同時,Snowflake 與 Nvidia 的新集成的原生特性是獨特的,Catanzano 指出。他還提到,許多供應商都有 Nvidia 的集成,但通過將 CUDA-X 庫嵌入到 Snowflake ML 中,並消除為使庫與 Snowflake 工具協同工作而需要更改代碼的需求,這一集成可能成為 Snowflake 的一個差異化因素。

Catanzano 説:“這不是追趕,而是創新。”

Ni 同樣指出,雖然其他供應商提供 GPU 加速能力,但 Snowflake 與 Nvidia 的集成在簡化 AI 和 ML 開發 的方式上是獨特的,因為它消除了繁瑣的代碼重寫。

他説:“這是一次戰略性的追趕,但有其獨特之處。其他人已經擁有 GPU 加速,但 Snowflake …… 正在將 CUDA-X 直接接入其 AI 數據雲,以操作簡單性提供 GPU 加速。”

Snowflake 原生添加 Nvidia 的 CUDA-X 庫是該供應商最新的舉措,旨在更好地幫助客户構建 AI 工具和其他高級應用。

在 ChatGPT 發佈後,Snowflake 對人工智能激增的興趣反應較慢,落後於其他供應商,包括競爭對手 Databricks 以及科技巨頭 AWS、Google Cloud 和 Microsoft。該供應商在 2023 年 推出了一些功能,發佈了 Snowflake ML,作為其 Snowpark 容器服務環境的一部分用於人工智能開發,但這些功能並不廣泛。

然而,自從 Sridhar Ramaswamy 在 2024 年 2 月 被任命為首席執行官 以來,Snowflake 已將人工智能開發作為優先事項。隨着 6 月推出一系列新功能以及 本月早些時候推出的許多功能,Snowflake滿足了客户的需求,並提供了與競爭對手更為一致的人工智能開發能力,Ni 表示。

他表示:“在過去一年中,Snowflake 翻轉了局面。它從在人工智能領域採取防守轉向以統一的人工智能數據雲採取進攻。通過將 Nvidia 的 CUDA-X 堆棧直接接入 Snowflake ML,並消除基礎設施工作或代碼重寫,Snowflake 已經從 ‘遲到的參與者’ 變成了真正的競爭者。”

Catanzano 還指出,Snowflake 的人工智能開發能力持續改善,新集成進一步推動了該供應商的演變。

他説:“Snowflake 在其人工智能能力方面似乎取得了實質性進展。”

下一步

展望未來,使用户能夠快速輕鬆地 構建人工智能工具 仍然是 Snowflake 的主要產品開發計劃,Sridhar 表示。

他説:“Snowflake 正在繼續使團隊在數據所在的位置更容易、更快速地構建和使用人工智能。我們的重點是通過人工智能原生集成來加深對客户的支持,從而簡化數據和人工智能工作流在其人工智能數據雲中的連接方式。”

根據 Ni 的説法,一個可以顯著幫助 Snowflake 客户開發有效人工智能工具的功能是強大的語義層。語義層是治理工具,使組織能夠定義其數據,以使其一致且可發現。Snowflake 現在與 Salesforce 及其他眾多供應商一起,成為 一個開發語義建模標準的聯盟,簡化了這一過程。

Ni 表示:“Snowflake 的下一步應該是加強其治理的人工智能數據雲之上的語義層和應用層。隨着 GPU 加速的機器學習現在直接在 Snowflake ML 中運行,邏輯上的下一步是幫助客户將這種性能轉化為可重複的、決策就緒的工作流。”

與此同時,Catanzano 建議 Snowflake 不僅要與 Nvidia 的數據科學庫集成,還要增加與其他供應商的 人工智能框架 的集成,以及其他可能的方式,以更好地滿足用户的需求。

他説:“Snowflake 可以繼續擴展其 GPU 加速庫生態系統,以包括其他專業的人工智能框架。[此外],它可以開發更多自動化的人工智能模型優化工具,或創建行業特定的人工智能模板,利用 GPU 能力吸引需要高性能人工智能處理的特定領域用例的用户。”

Eric Avidon 是 Informa TechTarget 的高級新聞撰稿人,擁有超過 25 年的經驗。他報道分析和數據管理領域的新聞。