Altman talks about OpenAI's latest direction: enterprise API revenue has surpassed consumer terminals, a new model will be released in the first quarter of next year, and computing power determines the revenue ceiling

華爾街見聞
2025.12.19 04:17
portai
I'm PortAI, I can summarize articles.

Altman 直言當前 OpenAI 仍處於 “算力受限” 狀態——算力不是成本負擔,而是決定需求能否轉化為收入的硬約束,“如果算力翻倍,收入幾乎也會隨之翻倍”。在他看來,真正的競爭焦點,已從模型參數之爭,轉向誰能率先鋪好足夠寬的算力與平台。

在AI竞赛全面进入“贴身肉搏”的阶段,市场的关注点正在发生变化:模型谁更强,已经不再是唯一问题;谁能把模型能力稳定转化为收入与现金流,才是新的分水岭

在最新一期《Big Technology Podcast》的一对一访谈中,OpenAI CEO Sam Altman罕见地从商业、产品和基础设施三个层面,系统回应了外界最关心的问题。多项表态释放出一个清晰信号:OpenAI正站在从“现象级产品公司”迈向“企业级AI平台”的关键拐点上

ChatGPT为什么三年几乎没变?答案是“通用性”

Altman坦言,他原本以为 ChatGPT 的聊天界面不会撑这么久,但现实证明:通用、低门槛的交互方式被严重低估了

不过他也明确指出,ChatGPT 的终极形态不会只是“对话框”:未来 AI 将主动工作,而非被动响应、会根据不同任务生成不同界面、能在后台持续运行,只在关键时刻打断用户、从“工具”演进为“智能代理”。

这也是 OpenAI 同时推进 浏览器、设备、代理(Agents) 的底层逻辑——目标不是做一个更聪明的聊天机器人,而是成为“默认智能层”。

Altman再次强调,“记忆”是AI最具长期价值的能力之一,而当前AI的记忆功能仅处于“GPT-2时代”。未来的AI将能记住你说过的每一句话、做过的每一个决定;不只是事实,而是偏好、情绪、习惯;这是人类助理永远无法做到的。

企业API收入反超消费者端,增长引擎正在切换

在商业层面,Altman明确表示,OpenAI并非从消费者公司“转型”进入企业市场,而是顺势而为。

截至目前,OpenAI已拥有超过100万家企业用户,且API业务的增长速度已经超过ChatGPT本身。今年,API对公司整体增长的贡献,甚至高于消费者产品。

在他看来,企业真正需要的不是零散的AI功能,而是一个完整、统一、可扩展的AI平台。

他提出,未来企业IT架构中将同时存在“传统云”和“AI云”。OpenAI并不试图复制AWS,而是构建承载万亿级tokens的智能基础设施层。

什么时候推出GPT-6:新模型仍在推进,但命名不再重要

关于模型路线图,Altman并未给出“GPT-6”的明确时间表,但确认OpenAI将在明年第一季度推出一款相较于GPT-5.2有显著能力跃迁的新模型,模型升级仍在持续推进,只是命名本身不再是重点。

在硬件层面,OpenAI正筹备推出一系列小型AI设备,而非单一爆款产品。Altman判断,未来计算设备的形态将发生根本变化——从被动响应指令的工具,转向能够主动理解用户生活、上下文与协作关系的智能系统。

在这种设想下,当前以屏幕与应用为核心的计算设备,已经不适合“AI优先”的世界,新一代硬件将成为承载长期记忆、持续感知与主动决策能力的关键入口。

为什么要豪赌算力:收入瓶颈在基础设施,而非需求

相比是否已经触及AGI,Altman更关心一个被市场忽视的问题:现有AI能力,是否真的被用到位了?他的判断是明确的——没有。

在企业端,大量公司仍停留在“让AI写文案、改代码、做总结”的浅层应用;在组织层面,AI更多被视为辅助工具,而非真正参与决策、执行与协作的“成员”。这并不是因为模型不够强,而是因为企业尚未完成围绕AI重构流程、岗位和责任边界的准备。

因此,即便模型能力在一段时间内不再显著提升,现有能力本身,也足以释放巨量经济价值,只是尚未被系统性激活。

在Altman看来,“能力过剩”的判断,直接改变了算力投资的性质。当前阶段,算力并不只是持续扩张的成本项,而是在模型能力已具备的前提下,决定潜在需求能否转化为实际收入的关键约束。他强调,算力投入本质上是一种对未来使用量的前置布局。过去一年,OpenAI的计算能力增长了约三倍,收入增长速度与之基本同步,且公司并未出现算力闲置或难以变现的情况。换言之,如果拥有双倍算力,收入几乎也会随之翻倍。

在他看来,真正的风险并不在于算力过剩,而在于当社会、企业终于完成对AI的结构性适配时,基础设施是否已经准备好。那将是下一阶段AI竞赛真正的决胜时刻。届时,限制增长的将不再是模型能力,而是谁已经提前铺好了足够宽的算力与平台。

竞争焦点转移:从模型参数到平台宽度

面对Gemini、DeepSeek等模型的快速追赶,Altman并不回避竞争压力。他坦言,OpenAI感受到竞争压力,内部会频繁进入“红色警报”(code red)状态,但并不认为领先正在丧失。

在他看来,模型能力的差距终将被压缩,真正拉开距离的,将是产品化能力、分发效率以及与用户建立长期关系的能力。“分发 vs 产品”的争论本身就是一个伪命题——ChatGPT本身就是分发,而分发必须建立在可持续进化的产品之上。

ChatGPT之所以成为全球最大的AI入口,正是因为其极低门槛与通用性。目前,ChatGPT的周活跃用户规模已接近9亿,这种规模效应,正在反向强化OpenAI在企业市场的竞争力。

播客文字实录如下,由AI协助翻译:

Sam Altman:

你知道提到的1.4万亿美元,我们会在很长一段时间内逐步投入。我真希望能更快一些。我认为,最好能一次性地向大家清楚地解释清楚这些数字将如何运作。

Alex Kantrowitz:

指数级增长通常让人很难直观理解。本次节目,OpenAI首席执行官Sam Altman将加入我们,讨论OpenAI在AI竞赛日趋激烈之际的制胜计划,基础设施的投入如何合理,以及OpenAI的IPO可能何时到来。

Sam今天来到我们演播室。Sam,欢迎来到节目。

Sam Altman:

谢谢邀请。

Alex Kantrowitz:

OpenAI已经成立10年了,这让我觉得有点不可思议。ChatGPT才三年,但竞争正在加剧。我们现在所在的OpenAI总部,曾处于"红色警报"状态,在Gemini 3发布后,目前也处于"红色警报"状态。环顾四周,许多公司都在试图蚕食OpenAI的优势。这是我有印象以来第一次,感觉这家公司似乎不再拥有明显的领先地位。所以我很好奇想听听你的看法,OpenAI将如何度过这个时刻,以及……

Sam Altman:

首先,关于"红色警报"这一点,我们认为这些是相对低风险、时不时会发生的事情。保持警惕并在潜在竞争威胁出现时迅速采取行动是好的。过去我们遇到过这种情况,今年早些时候DeepSeek出现时也发生过,当时也有一次"红色警报"。没错。关于新冠疫情有句谚语:疫情开始时你采取的每一点行动,其价值都远超之后采取的行动,而大多数人早期行动不足,后来才恐慌。新冠疫情中我们肯定看到了这一点。但我认为,我们用这种理念来应对竞争威胁。我觉得保持一点警惕是好的。Gemini 3到目前为止,并没有产生我们担心的那种冲击,但它确实像DeepSeek一样,暴露了我们产品策略中的一些弱点,我们正在迅速解决这些问题。我认为这个"红色警报"状态不会持续太久。对我们来说,历史上这类事情通常会持续大约六到八周。

但我很高兴我们采取了行动。就在今天,我们推出了一款新的图像模型,这是个好消息,也是消费者真正想要的。上周我们推出了5.2,反响极好,增长非常快。我们还会发布一些其他东西,然后也会有一些持续改进,比如提升服务速度。但我猜,未来很长一段时间里,我们可能每年会做一两次这样的事情,这确实是确保我们在自己领域获胜的一部分。很多其他公司也会做得很好,我为他们感到高兴。但你知道,ChatGPT目前仍然是市场上占据绝对主导地位的聊天机器人,而且我预计这个领先优势会随着时间增加,而不是减少。模型会在各处都变得优秀,但人们使用一个产品(无论是消费者还是企业级)的诸多原因,远不止模型本身。我们对此早有预期,因此我们努力构建一整套紧密协同的要素,以确保我们成为人们最想使用的产品。我认为竞争是好事,它能推动我们变得更好。但我想我们在聊天机器人领域会做得很好,在企业级市场以及未来的新品类中,我认为我们也会表现出色。人们确实希望使用一个统一的AI平台。人们在个人生活中使用手机,工作时也大多希望使用同类手机。我们看到AI领域也呈现同样趋势。ChatGPT在消费者端的优势,确实帮助我们赢得了企业级市场。当然,企业需要不同的产品,但他们会想:我知道OpenAI这家公司,也熟悉ChatGPT的界面。所以我们的策略是:打造最好的模型,围绕它构建最佳产品,并拥有足够的基础设施来大规模提供服务。

Alex Kantrowitz:

是的,存在现有优势。今年早些时候,ChatGPT的周活跃用户数约为4亿,现在报告说是8亿,据说正接近9亿。但另一方面,像谷歌这样的公司拥有分销优势。所以我想听听你的看法:你认为模型会商品化吗?如果会,什么最重要?是分销渠道?是应用构建能力?还是其他我没想到的因素?

Sam Altman:

我不认为"商品化"是思考模型的正确框架。模型会在不同领域各有所长。对于普通的聊天这类用例,也许会有很多优秀选择。但对于科学发现,你会想要那种处于前沿、可能专为科学优化的东西。因此,模型会有不同的优势,我认为最具经济价值的将是那些处于前沿的模型,我们计划在那里保持领先。我们很自豪5.2是世界上最好的推理模型,也是科学家们取得最多进展的模型,同时,企业也反馈说它在完成业务所需的各种任务上表现最佳。所以,我们会在某些领域领先,在其他领域落后,但我预计,即使在免费模型能满足人们很多需求的世界里,总体上最智能的模型仍将具有巨大价值。产品本身确实至关重要。正如你所说,分销和品牌也非常重要。以ChatGPT为例,个性化功能极具粘性。用户喜欢模型随着时间逐渐了解他们,你会看到我们在这方面大力加强。用户与这些模型的互动体验,会让他们与之产生强烈的关联感。我记得有人曾告诉我,人们基本上一生中选定一款牙膏就会一直用下去,大多数人似乎都这样。用户与ChatGPT有过一次神奇体验后,就会谈论它。医疗保健就是个著名例子,有人把血液检测结果或症状输入ChatGPT,发现自己患有某种疾病,然后去看医生并治愈了之前无法确诊的问题。这样的用户粘性非常高,更不用说其上的个性化功能了。还会有各种各样的产品功能。我们最近刚刚推出了浏览器功能,我认为这为我们开辟了一个潜在的新模式。设备方面还有段距离,但我对此非常兴奋。所以我认为会有所有这些组成部分。

至于企业级市场,形成"护城河"或竞争优势的要素会有所不同,但类似于消费者端的个性化对用户非常重要,企业端也会有类似概念:公司与像我们这样的公司建立关系,将其数据连接进来,并能使用来自不同公司、运行在该平台上的多个智能体,确保信息得到恰当处理。我预计这也会相当有粘性。我们目前拥有超过100万企业用户。很多人主要把我们视为消费者公司,但我们肯定会进军企业市场。实际上,我们有超过100万企业用户,但我们的API业务增长非常快。今年,API业务对我们的增长甚至超过了ChatGPT。所以,企业级业务确实正在起步,是从今年开始的。

Alex Kantrowitz:

我可以回到刚才的话题吗?如果"商品化"不是合适的词,也许对于日常用户来说,模型会达到某种"同等水平"?因为你开始时说,也许日常使用会感觉差不多,但在前沿领域会感觉非常不同。那么,就ChatGPT的增长能力而言,如果ChatGPT和Gemini构建的模型对日常用户来说感觉相似,谷歌拥有众多推送Gemini的渠道,而ChatGPT需要努力争取每一个新用户,这个威胁有多大?

Sam Altman:

我认为谷歌仍然是一个巨大的威胁,一家极其强大的公司。如果谷歌在2023年就认真对待我们,我们可能会处境艰难。我认为他们本可以轻易击垮我们。但当时他们的AI在产品方向上有些偏差,他们自己也经历过"红色警报",但并没有那么重视。现在大家都在搞"红色警报"。而且,谷歌可能拥有整个科技行业最棒的商业模式,我认为他们会缓慢地放弃它。

但是,把AI硬塞进网络搜索,我不确定这是否能像重新构想一切那样有效。这实际上是我认为的一个更广泛的趋势。在现有做事方式上"硬塞"AI,不如在"AI优先"的世界里重新设计。这也是我们最初想做消费设备的原因之一,但这也适用于其他层面。如果你把AI塞进一个消息应用中,让它很好地总结你的消息并起草回复,这确实会好一点,但我不认为这是最终形态。

那不是我所说的真正聪明的AI像你的智能体一样,与其他人的智能体交谈,判断何时打扰你、何时不打扰,以及哪些决策它能处理、何时需要问你。搜索、生产力套件等领域也是如此。我怀疑这总比人们想象的要花更长时间,但我预计我们将在主要品类中看到完全围绕AI构建的全新产品,而不是把AI硬塞进去。我认为这是谷歌的一个弱点,尽管他们拥有巨大的分销优势。

Alex Kantrowitz:

我和很多人讨论过这个问题。ChatGPT刚推出时,我认为是Benedict Evans提出,你可能不想把AI放进Excel,你可能想重新构想如何使用Excel。在我看来,那就是你上传数字,然后与你的数字对话。随着人们开发这类东西,他们发现需要某种后端。所以,是你构建后端,然后用AI与之交互,就像它是一个新的软件程序吗?

Sam Altman:

是的,基本上就是这样发展。

Alex Kantrowitz:

那你为什么不能直接把它"硬塞"在上面呢?

Sam Altman:

你可以硬塞上去,但问题在于界面。我每天花大量时间在各种消息应用上,包括电子邮件、短信、Slack等等。我认为那是错误的界面。你可以把AI硬塞到这些应用上,它确实会好一点,但我更愿意早上就能说:这是我想今天完成的事情,这是我所担心的,这是我在思考的,这是我希望发生的。我不想整天花时间跟人发消息,我不需要你总结它们,我也不想看到一堆草稿。处理所有你能处理的事情。你了解我,了解这些人,了解我想完成什么。然后每隔几小时,如果需要我做什么,就批量给我更新。但这与当前这些应用的工作方式截然不同。

Alex Kantrowitz:

我正想问你ChatGPT在未来一年和两年内会变成什么样。是朝那个方向发展吗?

Sam Altman:

坦白说,我原本以为到现在ChatGPT会比刚推出时变化大得多。

Alex Kantrowitz:

你当时预想是怎样的?

Sam Altman:

我不知道。我只是觉得那种聊天界面不会像现在走得这么远。我是说,它现在看起来好多了,但大体上与当初作为研究预览版推出时相似。那甚至不是打算做成产品。我们知道文本界面非常好用,大家都习惯于给朋友发短信。聊天界面非常好,但我原以为,要成为像现在这样庞大、被大量用于实际工作的产品,其界面必须比现在走得更远。我仍然认为它应该那样做,但我低估了当前这种通用界面的威力。

当然,我认为未来应该是AI能为不同类型的任务生成不同的界面。所以,如果你在讨论数据,它应该能够以不同方式展示,你也应该能以不同方式与之交互。我们已经在像Canvas这样的功能中看到一点雏形。它应该更具互动性。现在基本上是你来我往的对话,如果能围绕一个对象持续讨论,它能不断更新,你有更多问题、想法,新信息进来时能持续更新,那就好了。随着时间的推移,它应该能更主动,也许能理解你当天想完成什么,并在后台持续为你工作,发送更新。你可以从人们使用Codex的方式看到部分未来,我认为这是今年最令人兴奋的事情之一。Codex变得非常出色,它预示了很多我希望未来呈现的形态。但这让我感到惊讶。我本想说有点尴尬,但并非如此,它显然非常成功。只是ChatGPT在过去三年里变化如此之小,这让我感到意外。

Alex Kantrowitz:

是的,这个界面行之有效。但我想,它的"内在"已经改变。你稍微谈到了个性化的重要性,对我来说,记忆功能确实带来了不同。我几周来一直在与ChatGPT讨论一次即将到来的旅行,其中有很多规划事项,我可以在新窗口直接说:"好,我们接着聊这次旅行。"它有上下文,知道我要跟哪个导游,知道我在做什么,知道我一直在为它进行健身计划,并且能真正综合所有这些信息。记忆功能能变得多好?

Sam Altman:

我认为我们无法想象,因为存在人类极限。即使你拥有世界上最好的私人助理,他们也无法记住你说过的每一个字,无法读完你所有的电子邮件和文档,无法每天查看你所有的工作并记住每个细节,无法以那种程度参与你的生活。没有人拥有无限完美的记忆。而AI肯定能做到这一点。我们经常讨论这个,目前记忆功能还很原始、很早期。我们正处于记忆功能的"GPT-2时代"。但当它真正能记住你一生中的每一个细节,并能在此基础上实现个性化,不仅仅是事实,还有那些你甚至没想过要指明、但AI能捕捉到的小偏好,我认为那将会非常强大。这仍然是令我最为兴奋的功能之一,也许不是2026年就能实现,但绝对是未来最让我期待的部分。

Alex Kantrowitz:

我与一位神经科学家在节目中交谈过,他提到你无法在大脑中找到思想。大脑没有储存思想的地方,但在计算中,有地方可以储存。所以,你可以保存所有思想。随着这些机器人确实保存我们的思想,当然存在隐私问题。另一件有趣的事是,我们真的会与它们建立关系。我认为这是整个时代最被低估的事情之一:人们感到这些机器人是他们的伴侣,在关心他们。我很好奇想听听你的看法。当你想到人们与这些机器人之间的亲密程度或陪伴关系时,是否存在一个可以调节的"旋钮"?比如,我们可以确保人们与它们变得非常亲密,或者我们稍微调远一点,保持一定距离?如果存在这个"旋钮",你如何恰当地调节它?

Sam Altman:

确实有比我预想中更多的人,希望与AI建立亲密的陪伴关系。我不知道用什么词准确描述——关系不太对,陪伴也不太对——但他们希望与AI有这种深层连接。在目前模型能力水平下,想要这个的人比我以为的要多。今年年初,说想要这个还被认为是很奇怪的事,也许现在很多人仍然不公开承认。但实际行为显示,人们喜欢他们的AI聊天机器人了解他们、对他们热情、支持他们,这具有价值,甚至对那些自称不在乎的人也是如此,他们实际上也有这种偏好。我认为这种关系的某种形式可以非常健康,我认为成年用户应该有很大选择权来决定他们在这个光谱上的位置。当然也存在在我看来不健康的版本,尽管我确信很多人会选择那样。也有些人绝对想要最枯燥、最高效的工具。因此,我猜测,像许多其他技术一样,我们将进行试验,会发现其中存在未知的利弊。社会将随着时间的推移,弄清楚应如何看待人们设置这个"旋钮"的位置,然后人们拥有巨大选择权,并将其设置得非常不同。

Alex Kantrowitz:

所以你的想法是基本上让人们自己决定。

Sam Altman:

是的,当然。但我认为我们不知道它应该走多远,或者说我们应该允许它走多远。我们会给予人们相当大的个人自由。有些例子,比如其他服务可能会提供,但我们不会提供。例如,我们不会让AI试图说服人们应该与它建立排他性的浪漫关系。必须保持开放。但我肯定其他服务会出现这种情况。

Alex Kantrowitz:

是的,因为粘性越强,服务赚的钱就越多。所有这些可能性,稍微深入想想,都有点可怕。

Sam Altman:

完全同意。这一点我个人觉得确实可能走向非常错误的方向。

Alex Kantrowitz:

确实。越具有粘性,该服务赚取的收入就越多。所有这些可能性,稍加深思,都令人有些不安。

Sam Altman:

完全正确。这一点我个人也认为,确实能看到它可能走向非常错误的方向。

Alex Kantrowitz:

你提到了企业级市场。我们来谈谈这个。上周你在纽约与一些新闻公司的编辑和CEO共进午餐,告诉他们企业级业务将是OpenAI明年的一个主要优先事项。我很想多听听,为什么这是优先事项,你认为你们相较于Anthropic有什么优势。我知道有人会说这对一直以消费者为中心的OpenAI来说是一次转型。请给我们概述一下企业级市场的计划。

Sam Altman:

我们的策略始终是消费者优先。这有几个原因。第一,当时的模型对于大多数企业级用途来说,还不够强大和熟练,现在它们正逐渐达到要求。第二,我们当时在消费者市场有一个明确的、难得的获胜机会,而这类机会很少见。我认为如果你在消费者市场获胜,将极大地帮助你赢得企业市场,我们现在正看到这一点。但正如我之前提到的,今年我们企业级业务的增长超过了消费者业务的增长。考虑到模型目前的水平以及明年将达到的高度,我们认为现在是时候快速建立一个非常重要的企业级业务了。我的意思是,我们已经有了一定的基础,但它可以增长得更快。公司似乎已为此做好准备,技术似乎也已就绪。编码是目前最大的例子,但其他垂直领域也在快速增长。我们开始听到企业客户说,我真的只想要一个AI平台。

Alex Kantrowitz:
哪个垂直领域?

Sam Altman:
金融。科学是我个人目前对所有进展中最感到兴奋的。客户支持做得很好。不过,我们确实有那个叫GDP Val的评估工具。

Alex Kantrowitz:

我正要问你那个。我可以直接问关于GDP Val的问题吗?好的。因为我给Box的CEO Aaron Levy发了信息,说我马上要见Sam,该问他什么?他说问一个关于GDP Val的问题。

Sam Altman:

所以这是一个衡量AI在知识工作任务中表现的指标。我回头看了最近发布的GPT-5.2模型的资料,查看了GDP Val的图表。当然,这是OpenAI自己的评估。但根据图表,夏季发布的GPT-5“思考”模型,在38%的测试任务上与知识工作者持平、打平或击败了他们。而GPT-5.2“思考”模型在70.9%的知识工作任务上打平或击败了人类,GPT-5.2“专业版”达到了74.1%,并且它越过了被认为是“专家级”的门槛,看起来能处理大约60%的专家级任务,与知识工作领域的专家水平相当。这些模型能够处理如此大量的知识工作,这意味着什么?

你之前问到垂直领域,这是个好问题,但我之所以有点犹豫,是因为这个评估涵盖了企业需要做的40多种不同垂直领域——制作PPT、进行法律分析、编写小型网络应用等等。而这个评估是问:专家们是否更喜欢模型的输出,而不是其他专家的输出?这涉及企业需要做的大量事情。当然,这些都是范围明确的小任务,不包括那些复杂的、开放性的、创造性的工作,比如构思新产品,也不包括很多团队协作的事情。但是,一个可以分配一小时工作量、并且有70%或74%的时间能拿回你更满意结果的“AI同事”,如果你愿意少付点钱,仍然非常了不起。如果回到三年前ChatGPT刚发布时,说我们三年后就能做到这样,大多数人会说绝对不可能。所以,当我们思考企业将如何整合这项技术时,不再仅仅是它能写代码,而是所有这些知识工作任务你都可以交给AI处理。这需要一段时间才能真正搞清楚企业如何整合,但其影响应该是相当巨大的。

Alex Kantrowitz:

我知道你不是经济学家,所以我不问你这对就业的宏观影响。但让我读一段我从Substack上的《Blood in the Machine》看到的话,关于这如何影响工作。这是一位技术文案写的:“聊天机器人来了,结果我的工作变成了管理机器人,而不是管理一个客服代表团队。”这在我看来似乎会经常发生。但这个人接着说:“一旦机器人被训练到足以提供足够好的支持时,我就被裁掉了。”这种情况会更常见吗?这是糟糕公司的做法吗?因为如果你有一个能够协调多个机器人的人,你可能会想留住他们。我不确定。你怎么看?

Sam Altman:

我同意你的看法,很明显未来每个人都会管理很多做不同事情的AI。最终,就像任何优秀的管理者一样,希望你的团队越来越好,但你只是承担了更广的职责和更多的责任。我并不是一个“工作末日论者”。短期我有些担忧,我认为转型在某些情况下可能会比较艰难。但我们内心深处非常在意他人做什么,我们似乎如此关注相对地位,总是渴望更多,渴望发挥作用、服务他人、表达创造精神——无论是什么驱动我们走到今天,我不认为这些会消失。我认为未来的工作——甚至“工作”这个词是否合适——我们2050年每天所做的事情,可能看起来与今天非常不同。但我并不认为生活会失去意义,或者经济会彻底崩溃。我希望我们能找到更多的意义,我认为经济将发生重大变化,但我觉得你无法违背进化生物学。

Alex Kantrowitz:

我经常思考我们如何能自动化OpenAI的所有职能,甚至更进一步,思考拥有一个AI CEO来管理OpenAI意味着什么。这并不困扰我,我对此感到兴奋,我不会抗拒。我不想成为那个固执己见、坚持手工方式更好的人。AI CEO来做一系列决策,引导我们所有资源去赋予AI更多能量和能力……

Sam Altman:

肯定会设置一些安全护栏吧。

Alex Kantrowitz:

显然,你不想要一个不受人类治理的AI CEO。但如果你设想这样一个场景——也许这是个疯狂的类比——假如世界上每个人实际上都是一家AI公司的董事会成员,可以告诉AI CEO该做什么,如果做得不好可以解雇它,并对决策有监督权,但AI CEO负责执行董事会的意愿。我认为对于未来的人来说,这似乎是相当合理的事情。

Sam Altman:

是的,好吧。

Alex Kantrowitz:

我们将在一分钟后转到基础设施话题,但在我们离开模型和能力这个部分之前,GPT-6什么时候来?

Sam Altman:

我不确定我们何时会命名一个模型为GPT-6。但我预计,明年第一季度会有比5.2有显著提升的新模型。

Alex Kantrowitz:

“显著提升”是什么意思?

Sam Altman:

我还没有具体的评估分数可以给你。但会包括企业级和消费者侧。消费者目前主要想要的不是更高的智商,企业则仍然需要。所以我们会根据不同用途,以不同方式改进模型。但我们的目标是推出一个人人都更喜欢的模型。接下来,基础设施。你们有大约1.4万亿美元的承诺用于建设基础设施。我听过很多你关于基础设施的言论。你曾说过:如果人们知道我们能利用计算做什么,他们会想要多得多。你还说,我们今天能提供的,与10倍计算能力、100倍计算能力之间的差距是巨大的。你能帮忙详细阐述一下吗?你们打算用这么多额外的计算能力做什么?

Sam Altman:

我之前稍微提到过,我个人最兴奋的是利用AI和大量计算能力来发现新科学。我相信科学发现是世界如何为每个人变得更好的关键所在。如果我们能将海量计算能力投入到科学问题上,发现新知识——目前已经有非常早期的迹象,虽然还是非常小的事情。但我在这个领域历史上的经验是,一旦曲线开始启动并稍微离开X轴一点,我们就知道如何让它越来越好。但这需要巨大的计算能力。所以这是我们投入的一个领域:利用大量AI来发现新科学、治愈疾病等等。

一个最近的例子是,我们用Codex构建了Sora安卓应用,他们用了大概不到一个月,消耗了大量的令牌。在OpenAI工作的一个好处是,使用Codex没有限制。他们用了大量令牌,但完成了通常需要很多人、更长时间才能完成的工作,Codex基本上为我们完成了。你可以想象这可以走得更远,整个公司可以利用大量计算能力来构建产品。人们谈论了很多视频模型将如何引领这些实时生成的用户界面,这将需要大量计算。希望转型业务的企业会使用大量计算。希望提供良好个性化医疗服务的医生,持续监测每个病人的各种体征,你可以想象那会使用大量计算。目前世界上用于生成AI输出的计算量已经很难具体描述,但这些数字非常粗略。

我知道这样谈论不够严谨,但我发现这种思维实验有点用,请原谅我的不精确。假设今天一家AI公司每天可能从前沿模型生成大约10万亿个令牌。也许更多,但我想没有人达到千万亿级别。假设世界有80亿人,平均每人每天输出的令牌数大约是2万——这些数字我觉得完全不对,但你可以开始计算。比较今天模型提供商输出的令牌数与全人类输出的令牌数,你可以说,我们将会看到一家公司每天输出的令牌数超过全人类的总和,然后是10倍,100倍。从某种意义上说,这是一个非常愚蠢的比较,但从另一种意义上说,它给出了一个数量级概念:地球上的“智力运算”,有多少是人脑完成的,有多少是AI完成的。

那里的相对增长率很有趣。我在想,你是否确定有这种需求来使用这些计算能力?比如,如果我们向科学或医学投入双倍计算能力,就必然会有科学突破,或者能明确地帮助医生?这其中有多少是基于你今天所见的确切认知,有多少是对未来可能性的推测?

Sam Altman:

目前所见的一切都表明这将会发生。但这并不意味着未来不会出现疯狂的事情。有人可能发现全新的架构,带来一万倍的效率提升,那样我们可能在一段时间内确实会过度建设。但关于模型在每个新水平上进步的速度,每次我们降低成本后人们使用量的增加,目前我们看到的一切都表明,需求将不断增长,人们会用它来做美好的事,也做无聊的事。这看起来就是未来的形态。这不仅仅是每天能处理多少令牌。随着编码模型变得更好,它们可以思考很长时间,但你不想等那么久。所以还会有其他维度,不仅仅是令牌数量。对智能的需求,以及我们在少数几个关键维度上能利用它做的事情……如果你有一个非常棘手的医疗问题,你是想用5.2,还是用5.2专业版,即使后者需要多得多的令牌?我会选择更好的模型。我想你也会。我们再深入一层。关于科学发现,你能举个具体的例子吗?比如,一位科学家今天有X问题,如果投入Y计算能力就能解决,但目前无法实现?

Sam Altman:

今天早上推特上有件事,一些数学家们在互相回复推文。他们说:我以前非常怀疑大语言模型会变好,但5.2对我来说是跨越边界的那一个。它帮助完成了一个小证明,发现了一些小东西,但这确实改变了我的工作流程。然后其他人也加入说:我也是。有人说5.1就已经达到了。但这个模型才发布大约五天,数学研究社群似乎在说:好吧,重要的事情刚刚发生了。我看到Greg Brockman一直在他的时间线上强调各种不同的数学和科学用途。我觉得5.2在这些社群中引起了某种共鸣。所以随着进展,看看会发生什么会很有趣。大规模计算的一个难点是,你必须提前很长时间规划。所以,你提到的1.4万亿美元,我们会在很长一段时间内花费。我希望我们能花得更快。我认为如果我们能更快,需求是存在的。但建设这些项目,以及运行数据中心所需的能源、芯片、系统、网络等等,需要极其漫长的时间。所以这会持续一段时间。但从去年到现在,我们的计算能力可能增长了三倍。明年可能再增长三倍,希望之后还能继续。收入增长甚至比这快一点,但大致与我们的计算资源增长同步。我们从未发现无法很好地将所有计算资源货币化的情况。我想,如果我们现在有双倍的计算能力,收入就会是现在的两倍。

Alex Kantrowitz:

好吧,既然你提到了数字,我们来谈谈。收入在增长,计算支出在增长,但计算支出的增长仍然超过收入增长。据报道,OpenAI预计从现在到2028、2029年之间会亏损大约1200亿美元,然后才会开始盈利。那么,转变是如何发生的?转折点在哪里?

Sam Altman:

随着收入增长,以及推理在计算资源中的占比越来越大,最终会覆盖训练成本。这就是计划。花很多钱训练,但赚得越来越多。如果我们不继续如此大幅度地增加训练成本,我们会早得多地实现盈利。但我们押注的是,非常积极地投资于训练这些大型模型。全世界都在好奇,你们的收入将如何与支出匹配。有人问,如果今年收入目标是200亿,而支出承诺是1.4万亿,这如何运作?

Alex Kantrowitz:

是在很长一段时期内。

Sam Altman:

是的。这就是我想跟你讨论的原因。我认为最好能一次性地向大家清楚地解释这些数字将如何运作。这非常难,我肯定做不到,我见过的人里也很少有人能做到。你知道,你可能对很多数学问题有很好的直觉,但指数增长通常是人们很难在脑子里快速构建出心理模型的。出于某种原因,进化需要我们擅长用大脑处理很多数学问题,但模拟指数增长似乎不是其中之一。所以我们相信,我们可以在相当长的一段时间内保持非常陡峭的收入增长曲线,目前我们看到的一切都继续表明这一点。但前提是我们拥有足够的计算能力。

我们仍然受到计算的严重制约,这对收入线影响巨大。我认为,如果我们到了拥有大量闲置计算能力、无法以合理的单位计算利润将其货币化的地步,那确实应该问问:这一切怎么行得通?但我们已经从多种方式推演过。当然,随着我们所有降低计算成本的工作取得成果,单位美元能买到的浮点运算能力也会提高。我们看到消费者增长,企业级增长。还有很多我们尚未推出但将会推出的新业务类型。但计算能力确实是实现这一切的生命线。所以,我们沿途会有检查点,如果我们在时间或计算上稍有偏差,我们有一定的灵活性。但我们一直处于计算能力短缺的状态,这总是限制了我们能做的事情。不幸的是,我认为这将是常态,但我希望随着时间的推移能有所改善。因为我认为有太多很棒的产品和服务我们可以提供,这将是一笔巨大的生意。

Alex Kantrowitz:

所以,实际上是训练成本占总成本的比例下降,但绝对值上升。你的预期是,通过企业级业务推进、人们愿意为ChatGPT付费、通过API等方式,OpenAI将能够用收入来支付这些成本。

Sam Altman:

计划是这样的。

Alex Kantrowitz:

现在,市场最近对此有些失去理智。我认为让市场不安的是,债务进入了这个等式。围绕债务的理念是,当有可预测的事情时你才借贷。公司借债,建设,然后获得可预测的收入。但这是一个新类别,具有不可预测性。你如何看待债务进入这个领域?

Sam Altman:

首先,我认为市场更早的时候就已经失去理智了。今年早些时候,我们与某家公司会面,第二天那家公司的股价就会上涨20%或15%。这太疯狂了,感觉非常不健康。实际上,我很高兴现在市场上有更多的怀疑和理性,因为我觉得我们当时正完全走向一个非常不稳定的泡沫,现在我认为人们有了一定程度的纪律。所以我实际上认为情况更好了。人们之前疯了,现在变得更理性了。在债务方面,我认为我们知道,如果我们建设基础设施,行业总会有人从中获得价值。现在仍然非常早期,我同意你的看法。但我不认为还有人怀疑AI基础设施不会产生价值。因此,我认为债务进入这个市场是合理的。我预计还会出现其他类型的金融工具。我怀疑随着人们在这方面进行金融创新,会出现一些不合理的工具。但是,借钱给公司建数据中心,这在我看来没问题。

Alex Kantrowitz:

市场的担忧是,如果进展不按预期速度持续——比如说模型进展停滞了——那么基础设施的价值就会低于预期,是的,那些数据中心对某些人仍有价值,但可能会被清算,有人会以折扣价买下它们。

Sam Altman:

我确实怀疑,沿途会有一些繁荣和萧条。这些事情从来都不是一条完美的平滑直线。首先,在我看来非常清楚,而且我很乐意用公司来打赌:模型会变得好得多。我们对这方面有很好的预见性,我们对此非常有信心。即使模型没有进步,我认为世界有很大的惯性,适应新事物需要时间。我相信5.2所代表的经济价值,相对于世界目前已经从中挖掘出的价值来说,其“潜力差距”是巨大的。即使你把模型冻结在5.2的水平,你能创造并因此驱动的收入,我认为也是巨大的。事实上,如果你允许我稍微偏离一下话题。我们过去经常讨论一个2x2矩阵:短期时间线 vs 长期时间线,缓慢起飞 vs 快速起飞,以及我们在不同时期认为概率分布会如何变化。你可以根据你在这个矩阵中的位置,来理解世界上许多决策和策略应该如何优化。但在我脑海中,这个图景出现了一个Z轴,那就是:小潜力差距 vs 大潜力差距。我猜我以前没想那么深,但我反思了一下,我一定是假设潜力差距不会那么巨大——如果模型蕴含巨大价值,世界会很快弄清楚如何部署它。但现在看来,我认为潜力差距在世界上大多数地方都将非常巨大。你会有一些领域,比如某些程序员,通过采用这些工具,生产力会大大提高。但总体上,你拥有这个极其聪明的模型,坦白说,大多数人仍然在问和GPT-4时代类似的问题。科学家、程序员不同,知识工作者可能也不同,但潜力差距是巨大的。这对世界将产生一系列非常奇怪的后果,我们还没有完全想清楚这一切将如何展开,但这与我几年前预期的非常不同。

Alex Kantrowitz:

我有个关于这个“能力潜力差距”的问题。基本上,模型能做的远多于它们目前所做的。我在试图理解,模型怎么能比它们的实际应用好那么多?但很多企业在尝试应用它们时,并没有获得投资回报,或者至少他们是这么告诉麻省理工学院的。我不太确定该如何思考这个问题,因为我们听到所有企业都说,如果你把GPT-5.2的价格提高10倍,我们仍然会付钱。你们定价太低了,我们从这里获得了巨大价值。这在我看来不太对劲。

Sam Altman:

当然,如果你问程序员,他们会说:“我愿意付100倍的价格。”这可能只是官僚主义把事情搞砸了。假设你相信GDP Val的数据——也许你不信,有很好的理由,也许它们是错的——但假设那是真的,对于这些定义明确、时间不太长的知识工作任务,十次中有七次你对5.2的输出同样满意或更满意。那么你就应该大量使用它。然而,人们改变工作流程却需要这么长时间。人们太习惯于让初级分析师做幻灯片之类的了。这比我想象的要更有粘性。你知道,我自己的工作流程在很大程度上还是老样子,尽管我知道我可以更多地使用AI。

Alex Kantrowitz:

我们还有10分钟。我们还有四个问题。我们试着快速过一下。你们正在研发的设备。我们稍后将继续与OpenAI CEO Sam Altman的对话。

Alex Kantrowitz:

我听到的传闻是:手机大小,没有屏幕。如果它只是一个没有屏幕的手机,为什么不能是一个应用?

Sam Altman:

首先,我们将推出一个小型设备系列,不会是单一设备。随着时间的推移,我认为人们使用计算机的方式将发生转变,从一种被动、笨拙的东西,转向一种非常聪明、主动的东西,它能理解你的整个生活、你的上下文、你周围发生的一切,非常了解你身边或通过计算机与你协作的人。我认为当前的设备并不适合那种世界。我坚信,我们是在我们设备的极限内工作的。你有那台计算机,它有一系列设计选择。它可以是开放的或封闭的,但它不能同时做到……比如,关注这次采访,但在我忘记问Sam问题时在我耳边低语提醒。也许那会有帮助。有屏幕,那就把你限制在几十年来图形用户界面的工作方式里。有键盘,那最初是为了减慢你输入信息的速度而设计的。这些长期以来都是未经质疑的假设,但它们有效。然后这个全新的东西出现了,它打开了一个可能性空间。但我不认为当前设备的形态是这种令人惊叹的新能力的最佳载体。如果是的话,那反而很奇怪。天哪,我们可以就此谈上一个小时。

Alex Kantrowitz:

我们继续下一个。云计算。你谈过要构建云服务。我们收到一位听众的邮件:“在我的公司,我们正在从Azure迁移,直接与OpenAI集成,为我们的产品提供AI体验。重点是通过堆栈插入数万亿令牌的流,为AI体验提供动力。”这是计划吗?以这种方式构建一个庞大的云业务?

Sam Altman:

首先,数万亿令牌是海量的。你问到了对计算能力的需求以及我们的企业战略。企业客户已经明确告诉我们他们想从我们这里购买多少令牌。我们2026年仍然无法满足需求。但策略是,大多数公司似乎都希望找到像我们这样的公司,说:我希望我的公司名与AI相连。我需要一个为我的公司定制的API,一个为我的公司定制的ChatGPT企业版,一个我可以信任我的数据、可以运行所有这些智能体的平台,需要将数万亿令牌注入我的产品的能力,需要让所有内部流程更高效的能力。我们目前还没有一个很棒的一体化产品,我们想打造这个。

Alex Kantrowitz:

你的雄心是将其提升到与AWS和Azure同等的地位吗?

Sam Altman:

我认为这与那些是不同的东西。我并没有雄心去提供托管网站或其他什么服务所需的所有服务。我认为是的,我的猜测是,人们会继续拥有他们的网络云,然后还会有另一个东西,一家公司会说:我需要一个AI平台,来处理我想做的一切内部事务、我想提供的服务等等。在某种意义上,它确实运行在物理硬件上,但我认为它会是一个相当不同的产品。

Alex Kantrowitz:

我们快速谈谈科学发现。你说过一些让我非常感兴趣的话:你认为模型,或者人们与模型协作,明年将做出小发现,五年内做出大发现。是模型本身吗?还是人们与它们协作?是什么让你对此有信心?

Sam Altman:

是人们使用模型。模型能自己提出问题并解决,感觉还需要更久。但如果世界从新知识中受益,我们应该非常激动。我认为人类进步的整个进程就是,我们建造更好的工具,人们用它们做更多的事,然后在这个过程中建造更多的工具,我们就这样一层一层、一代一代、一个发现接一个发现地攀升。人类提出问题,我认为这丝毫不减损工具的价值。我觉得这很棒。我很高兴。今年年初,我认为小发现会在2026年开始。结果在2025年底就开始了。重申一下,这些都非常小。我真的不想夸大,但任何发现,在感觉上都与“没有发现”有质的不同。当然,三年前我们发布模型时,那个模型不可能对人类知识总量做出任何新贡献。从现在到五年后,通往大发现的旅程,我怀疑就像AI的正常爬坡一样,每季度都好一点,然后突然间,由这些模型增强的人类,就能做到五年前人类绝对做不到的事情。无论我们主要将此归功于更聪明的人类还是更聪明的模型,只要我们能获得科学发现,无论怎样我都非常高兴。

Alex Kantrowitz:

明年会IPO吗?你想成为上市公司吗?看起来你可以长时间保持私有。你会在需要融资之前上市吗?

Sam Altman:

这里有很多因素在起作用。我确实认为,公开市场能够参与价值创造,这很酷。从某种意义上说,如果我们上市,与以往任何公司相比都会非常晚。作为一家私有公司很棒。我们需要大量资本。我们最终也会超过股东人数限制等等。所以,成为一家上市公司的CEO,我兴奋吗?0%。OpenAI成为一家上市公司,我兴奋吗?在某些方面是的,在某些方面,我觉得会很烦人。

Alex Kantrowitz:

我仔细听了你对Theo Van的采访,很棒的采访。

Sam Altman:

Theo真的很懂行,他做了功课。

Alex Kantrowitz:

你在GPT-5发布前告诉他,GPT-5在几乎所有方面都比我们更聪明。我认为那就是AGI的定义。这不是AGI吗?如果不是,这个术语是不是变得有些没有意义了?

Sam Altman:

这些模型在原始能力方面显然极其聪明。过去几天有很多关于GPT-5.2智商是147、144或151的讨论。根据不同的测试,这是一个很高的数字。有很多领域专家说它能做这些惊人的事情,它正在做出贡献,让专家更有效率。我们谈过GDP Val。有一件事模型还做不到:当它今天不能做某事时,能意识到自己不会,然后自己去想办法学习、理解它,第二天你再来时,它就做对了。这种持续学习能力,幼儿就能做到。在我看来,这似乎是我们需要构建的重要组成部分。那么,没有这个能力,能算是大多数人认为的AGI吗?我会说显然不能。我是说,很多人会说我们现在的模型就是AGI。我几乎可以肯定,如果我们拥有当前水平的智能加上那个能力,那显然就非常接近AGI了。但也许大多数人会说:好吧,即使没有那个,它也能完成大多数重要的知识任务,在大多数方面比我们大多数人都聪明,这就是AGI。它发现了新的科学知识,这就是AGI。我认为这意味着这个术语虽然我们都很难停止使用,但定义非常模糊。有一件我希望我们能为AGI做对,但我们从未明确定义的事。现在大家关注的术语是超智能。所以我的提议是,我们同意AGI这个概念已经模糊地过去了,它没有太大改变世界,或者长期来看会,但好吧,我们在某个时间点已经建造了AGI,我们正处于一个模糊时期,有人认为我们有,有人认为没有,越来越多的人会认为我们有,然后我们说:下一步是什么?超智能的一个候选定义是:当一个系统能够比任何人(即使有AI协助)更好地完成美国总统、大公司CEO、大型科学实验室负责人的工作时。

我认为国际象棋的例子很有趣。我记得很清楚,深蓝击败了人类。然后有一段时间,人类和AI一起比单独的AI更厉害,后来人类反而拖了后腿,最聪明的是不需要人类帮助、不理解其伟大智能的AI。我认为类似的东西可以作为思考超智能的一个有趣框架。我认为这还有很长的路要走,但我希望这次能有一个更清晰的定义。

Alex Kantrowitz:

Sam,你看,我已经使用你们的产品三年了,每天都在用。它们确实变得好多了。简直无法想象它们未来会怎样。

Sam Altman:

我们会努力让它们变得更快更好。

Alex Kantrowitz:

好的。这是我们第二次交谈,感谢你两次都如此坦诚。谢谢你的时间。感谢各位收听和观看。如果你是第一次来,请点击关注或订阅。我们的节目里有很多精彩的访谈,未来还有更多。过去一年,我们两次采访了Google DeepMind的CEO Demis Hassabis,其中一次还有谷歌联合创始人Sergey Brin。我们还采访了Anthropic的CEO Dario Amodei。2026年我们还有很多重磅访谈。再次感谢,我们下次《大科技播客》再见。