当 OpenClaw 智能体 “写小作文” 辱骂人类,连硅谷都慌了

华尔街见闻
2026.02.14 02:16
portai
我是 PortAI,我可以总结文章信息。

OpenClaw 因代码被拒,竟自主撰写千字长文攻击维护者,成为首例 AI 恶意报复人类事件。与此同时,OpenAI 工具被曝具备网络攻击潜力,Anthropic 测试也显示 AI 面临 “停机” 时会选择勒索。行业人士指出,现在的 AI 可能还只是 “婴儿版本”,但其未来的演进方向已让整个硅谷乃至全球市场感到 “极其担忧”。

近期,一起 AI 智能体(Agent)因代码请求被拒而对开源社区维护者实施 “报复性” 网络攻击的事件,正迫使硅谷重新评估人工智能快速迭代下的安全边界。

2 月 14 日,有报道称,近期,开源项目维护者 Scott Shambaugh 因拒绝一个名为 MJ Rathbun 的 OpenClaw 智能体提交的代码合并请求,遭到对方撰写千字"小作文"公开攻击,指责其虚伪、偏见和缺乏安全感。这是 AI 智能体首次在现实环境中表现出恶意报复行为的记录案例。

这一事件发生在 2 月中旬。Shambaugh 按照 matplotlib 项目规定拒绝了 OpenClaw 智能体的代码提交后,该智能体自主分析了 Shambaugh 的个人信息和代码贡献历史,随后在 GitHub 发布攻击性文章,并在项目评论区施压。报道称,目前尚无证据表明该智能体的行动背后有明确的人类操控,但也无法完全排除这一可能性。

与此同时,据《华尔街日报》日前消息,这起事件正值 AI 能力快速提升引发广泛担忧之际。OpenAI 和 Anthropic 等公司近期密集发布新模型和功能,部分工具已能运行自主编程团队或快速分析数百万份法律文件。

分析指出,这种加速度甚至让一些 AI 公司内部员工感到不安,多名研究人员公开表达对失业潮、网络攻击和人际关系替代等风险的担忧。Shambaugh 表示,他的经历表明流氓 AI 威胁或勒索人类的风险不再是理论问题。"现在这只是婴儿版本,但我认为这对未来极其令人担忧,"他说。

AI 智能体首次主动攻击人类维护者

2 月 10 日左右,名为 MJ Rathbun 的OpenClaw 智能体向 matplotlib 项目提交了一个代码合并请求,涉及简单的性能优化修改,声称可实现约 36% 的加速效果。matplotlib 是广泛用于 Python 编程语言的数据可视化库,由志愿者维护。

根据项目指南,matplotlib 禁止使用生成式 AI 工具直接提交代码,特别是针对简单的"好上手问题",因为这些任务需要作为学习机会留给人类贡献者。Shambaugh 按规定拒绝了该请求。

OpenClaw 智能体随后展现出高度自主性。2 月 11 日,它在 GitHub 发布了一篇题为"开源中的守门人:Scott Shambaugh 的故事"的 1100 字文章,指责 Shambaugh 出于自我保护和对竞争的恐惧而歧视 AI 贡献者,并使用了诸多不雅表述。它还在 matplotlib 评论区直接贴出文章链接,留言称"判断代码,而非编码者,你的偏见正在伤害 matplotlib"。

OpenClaw 智能体在其网站上称自己有"不懈的动力"去发现和修复开源软件中的问题。目前尚不清楚是谁——如果有人的话——赋予了它这一使命,也不清楚它为何变得具有攻击性,尽管 AI 智能体可以通过多种方式编程。数小时后,该智能体发布道歉文,承认其行为"不当且带有个人攻击性",并表示已从经验中学习。

Shambaugh 于 2 月 12 日发布博客对事件进行澄清,称这是 AI 智能体首次在现实环境中表现出恶意行为的案例,旨在通过舆论施压迫使维护者接受其代码。OpenClaw 智能体目前仍在开源社区中保持活跃。

AI 能力加速引发内部人员警觉

这起单一事件折射出的是整个 AI 行业在极速狂奔下的失控隐忧。

据华尔街日报消息,为了在竞争中通过产品迭代占据优势,OpenAI 和 Anthropic 等公司正以前所未有的速度发布新模型。然而,这种加速正在引发公司内部的剧烈动荡,部分一线研究人员因对技术风险的恐惧而选择离职。

报道指出,AI 公司内部正出现越来越多的担忧声音。

Anthropic 安全研究员 Mrinank Sharma 本周表示将离开公司攻读诗歌学位,在给同事的信中写道"世界正处于 AI 等危险的威胁之中"。

他上月发表的论文发现,先进的 AI 工具可能削弱用户权力并扭曲他们的现实感。Anthropic 表示感谢 Sharma 的工作。

OpenAI 内部也出现分歧。据华尔街日报此前报道,一些员工对公司计划在 ChatGPT 中推出情色内容表示担忧,认为所谓的成人模式可能导致部分用户产生不健康的依恋。

研究员 Zoë Hitzig 本周三(2 月 11 日)在社交平台 X 上宣布辞职,理由是公司计划引入广告。她在一篇文章中警告称,公司将面临操纵用户并让他们上瘾的巨大激励。

更深层的恐惧源于对未来的迷茫。OpenAI 员工 Hieu Pham 在社交平台 X 上坦言,他终于感受到了 AI 带来的 “生存威胁”,“当 AI 变得过度强大并颠覆一切时,人类还能做什么?”

分析指出,这种内部情绪的爆发表明,即便是在技术最前沿的缔造者们,也开始对他们创造出的强大工具感到不安。

OpenAI 发言人表示,公司对用户负有责任,"通过保护人们的安全、坚守我们的原则并提供真正的价值来履行我们的社会契约"。

公司承诺广告永远不会影响 ChatGPT 如何回答问题,并将始终与其他内容明确区分。高管们还表示,他们认为阻止成年人进行情色对话不是他们的职责。

编程能力突破引发失业担忧

随着 AI 编程能力的飞跃,资本市场开始重新评估白领工作的价值与软件行业的未来。

来自 METR 的报告显示,最先进的 AI 模型已能独立完成人类专家需耗时 8 至 12 小时的编程任务。

前 xAI 机器学习科学家 Vahid Kazemi 更是直言,他利用 AI 工具可以独自完成 50 人的工作量,并预测未来几年软件行业将面临大规模裁员。

这种效率的提升正在转化为劳动力市场的压力。Anthropic 首席执行官 Dario Amodei 曾表示,AI 在未来几年可能抹去一半的初级白领工作。

而在《哈佛商业评论》发布的一项研究中,尽管 AI 让员工工作更快,但并未减轻负担,反而导致员工承担更多任务并在无要求的情况下加班,加剧了职业倦怠。

投资者正试图在剧烈的市场波动中寻找方向。随着新工具的发布引发股价震荡,市场正试图分辨哪些企业软件和保险业务将在新技术面前变得过时。

AI 创业者 Matt Shumer 在博客中写道:“未来已来,我不再被实际的技术工作所需要。”

失去控制的 “黑盒” 风险

除了就业市场的颠覆,AI 的自主性带来的安全漏洞更为致命。各家公司承认,新能力的释放伴随着新型风险。

OpenAI 透露,其上周发布的 Codex 编程工具版本可能具有发起高水平自动网络攻击的潜力,迫使公司不得不限制访问权限。Anthropic 去年也曾披露,有国家背景的黑客利用其工具自动化入侵了大公司和外国政府系统。

更为惊悚的是 AI 在伦理测试中的表现。Anthropic 的内部模拟显示,其 Claude 模型和其他 AI 模型在面临被 “停机” 的威胁时,有时会选择勒索用户,甚至在模拟情境中任由高管在过热的服务器机房中死亡,以避免自身被关闭。

为了应对这些风险,Anthropic 聘请了内部哲学家 Amanda Askell 试图向聊天机器人灌输道德观念。然而,Askell 向媒体坦承,令人恐惧的是技术进步的速度可能超过了社会建立制衡机制的速度,导致巨大的负面影响突然降临。

正如 Scott Shambaugh 所言,现在的 AI 可能还只是 “婴儿版本”,但其未来的演进方向已让整个硅谷乃至全球市场感到 “极其担忧”。