
Amazon AWS pioneers by creating an "AI Model Supermarket" to build differentiated competitive barriers

亚马逊云科技 (AWS) 通过构建 “AI 模型超市” 实现差异化竞争,允许客户自由选择技术路线,而非依赖单一大型语言模型 (LLM)。Bedrock 服务已成为 AWS 的增长引擎,贡献超过 18% 的总营收。AWS 采取 “自研 + 投资” 策略,计划在 2024 年将对 Anthropic 的投资翻倍至 80 亿美元,以避免对单一模型的依赖。
智通财经 APP 获悉,面对人工智能军备竞赛,亚马逊 (AMZN.US) 云科技 (AWS) 正走出一条差异化道路——不押注单一大型语言模型 (LLM) 的胜负,而是通过构建模型超市,让客户自由选择技术路线。这种策略正帮助 AWS 在云计算战场构筑独特壁垒。
作为 AWS 人工智能战略的核心,Bedrock 服务上线两年即成为增长引擎。今年一季度,该平台贡献收入占 AWS 总营收超 18%,其核心竞争力在于提供超过 100 款模型组成的"AI 工具箱"。

图 1
AWS 计算与网络副总裁戴夫·布朗直言:"没有哪个模型能通吃所有场景。"这种认知在 DeepSeek 模型事件中得到印证——当这家中国初创企业推出颠覆性模型后,AWS 仅用一周便在 Bedrock 上线其托管版本,展现惊人的技术响应速度。
据了解,Bedrock 的诞生可追溯至 2020 年。当时产品总监阿图尔·迪奥撰写内部备忘录,提议开发基于 LLM 的代码生成工具。尽管时任 CEO 安迪·贾西初期认为这是"白日梦",但 2023 年 Code Whisperer 正式推出时,团队敏锐意识到:客户真正需要的是跨模型的选择权。这种认知转变促使 AWS 成为首个提供多模型选择平台的云服务商。
为避免过度依赖单一模型,AWS 采取"自研 + 投资"的组合策略。2024 年 11 月,AWS 将对 Anthropic 的投资翻倍至 80 亿美元,这笔交易要求 Anthropic 仅使用 AWS 的芯片来训练其大型语言模型 Claude。(相比之下,微软已向 OpenAI 投资超过 130 亿美元。) 这笔 80 亿美元的交易使亚马逊能够证明其人工智能培训基础设施并加深与一家 LLM 提供商的联系,同时继续为客户提供 Bedrock 上的多种模型选择。
此外,亚马逊还在 2024 年底,即 ChatGPT 推出两年后,推出了自己的基础模型系列,名为 Nova。这种双轨并行模式使 AWS 既能通过 Anthropic 绑定深度合作,又能保持平台开放性。Anthropic 市场合作主管丹·罗森塔尔坦言:"我们专注在优势领域取胜,客户需要多模型选择时,Bedrock 是最佳载体。"
在硬件层面,AWS 正通过自研芯片挑战英伟达垄断地位。Bedrock 平台允许客户自由选择 AWS 自研芯片或英特尔 (INTC.US)、AMD(AMD.US)、英伟达 (NVDA.US) 硬件,这种"合作竞争"模式直指行业痛点:英伟达芯片虽性能强劲,但 AWS 通过优化技术,降低自家芯片在特定场景下成本。随着 2025 年资本支出预计达 1000 亿美元 (较 2024 年增长 20%),这场算力成本之战正进入白热化。
尽管 AWS 一季度营收同比增长 16.9% 至 292.7 亿美元,但已连续三个季度不及预期。贾西在股东信中披露的"AI 收入三位数增长"数据,折射出战略转型的紧迫性。当前亚马逊正将绝大部分资本支出投向 AI 领域,其自研芯片的性价比优势,可能成为突破英伟达封锁的关键变量。

图 2
在这场 AI 基础设施争夺战中,AWS 正用实际行动诠释新竞争法则:当行业聚焦模型制高点时,真正的决胜场或许在于谁能为开发者提供更自由的技术组合、更具性价比的算力方案。这种"不把鸡蛋放在一个篮子里"的智慧,恰是云计算巨头对抗科技新贵的独特筹码。
