
Refusing to become a "war machine"! Over a hundred Google employees jointly signed a letter demanding a red line in contracts with the U.S. military

五角大楼强推 AI 军事授权,硅谷掀起道德抗议浪潮。逾百名谷歌员工联名反对 Gemini 被用于监控与自主武器,Anthropic CEO 以” 凭良心无法答应” 拒绝 2 亿美元合同,而马斯克 xAI 已率先妥协。兵棋推演更揭示惊人风险:顶级 AI 模型在 95% 情境下最终选择动用核武。
五角大楼与人工智能初创公司 Anthropic 之间关于军事技术边界的激烈博弈,正在硅谷引发剧烈反响。
超过 100 名谷歌人工智能研发员工近期向管理层递交联名信,要求公司在与美国军方的合作中划定明确红线,拒绝将其技术用于大规模监控或无人类参与的自主武器系统。
本周四,逾百名谷歌员工向其 AI 部门 DeepMind 首席科学家 Jeff Dean 发送联名信,明确反对美国军方使用其 Gemini 大模型监视美国公民或操控自主武器。这一行动与 Anthropic 此前拒绝五角大楼 “所有合法用途” 授权要求的立场遥相呼应。
与此同时,近 50 名 OpenAI 员工和 175 名谷歌员工也发表公开信,批评五角大楼试图通过分化科技公司来迫使妥协的谈判策略,呼吁各公司 “搁置分歧,团结一致”。
这一事件令谷歌即将与军方敲定的合作协议面临不确定性。随着 Anthropic 面临在周五前可能失去 2 亿美元合同甚至被列为 “供应链风险” 的威胁,而马斯克旗下的 xAI 则已同意军方条款,硅谷 AI 企业正在商业利益与道德底线之间发生剧烈分化。
五角大楼施压引发硅谷反弹
五角大楼近期对 Anthropic 施加了巨大压力,要求其允许军方在涉密系统中将 Claude 模型用于 “所有合法用途”。
美国国防部长 Pete Hegseth 明确要求使用 “不受政策约束影响” 的模型。然而,Anthropic 首席执行官 Dario Amodei 拒绝妥协,坚持不得用于大规模监控和完全自主武器两条红线,称 “凭良心无法答应”。
这种强硬的施压策略迅速在硅谷其他公司引发了连锁反应。谷歌员工在联名信中恳求 Jeff Dean“尽一切力量阻止任何越过这些基本红线的交易”,并表达了希望对自身工作感到自豪的愿望。信中提到,签署者原本还计划反对 “对世界任何公民进行无证监控”,但为了提高诉求达成率而将其从信中删去。
谷歌高管表态与内部道德博弈
作为谷歌最具影响力的软件工程师之一,Jeff Dean 对 Anthropic 的立场表示了声援。他本周在社交媒体上明确反对政府使用 AI 监视美国人,指出“大规模监控违反了第四修正案,对言论自由产生寒蝉效应”,且监控系统容易被滥用于政治或歧视目的。
谷歌在处理员工激进主义方面有着复杂的历史。2018 年,一项与五角大楼的合作计划引发员工大规模抗议,最终迫使公司放弃续签合同。此后,谷歌集中了相关决策流程,并在追赶 OpenAI 和 Anthropic 等竞争对手的过程中,放宽了部分 AI 安全程序。
然而,本月早些时候仍有 800 多名员工请愿,要求公司公开其技术如何支持联邦移民执法的细节,显示出内部的道德审视依然强烈。
“多供给” 策略与 AI 军备竞赛风险
面对 Anthropic 的坚守,五角大楼正在迅速寻找替代方案。据 Axios 与纽约时报等媒体报道,军方已与 xAI 达成协议,允许其 Grok 模型按 “所有合法用途” 进入涉密系统。
同时,五角大楼与谷歌的谈判已进入深入阶段,与 OpenAI 的讨论也在持续。五角大楼甚至威胁将动用《国防生产法》强制征用 Anthropic 的模型,并要求国防承包商评估对其依赖程度。
AI 模型在军事应用中的潜在风险并非空穴来风。据 Tyler Durden 披露的一项由伦敦国王学院主导的兵棋推演显示,在 329 个回合的模拟中,顶级 AI 模型在 95% 的情况下最终选择了使用核武器。其中,Anthropic 的 Claude 表现出 “老练的鹰派” 特征,在风险攀升至核领域时果断实施打击;而其他模型如 Gemini 甚至在极早期就动用核武。
专家警告,AI 对 “核禁忌” 的约束力远不如人类,在军事决策时间被极度压缩的未来,无限制的 AI 应用可能带来灾难性后果,这也是科技公司坚持划定红线的核心原因。
