Wallstreetcn
2024.03.04 06:24
portai
I'm PortAI, I can summarize articles.

马斯克怒告 OpenAI 案解密:Ilya 看到了什么?125 万亿参数 Q* 细节曝光,53 页 PDF 全网疯转

马斯克起诉 OpenAI 案解密,揭示了 Q* 的重大细节。Q* 是 GPT-8,原计划于 2027 年发布,参数为 125 万亿。马斯克的起诉可能会导致 Q* 的发布时间延迟。同时,OpenAI 的 CEO Altman 发表推文表示,目前发生的一切只是新瓶装旧酒,暗示风暴中心仍保持平静。但关于 Ilya 看到了什么,仍是马斯克起诉案的未解之谜。马斯克在去年表示,Ilya 是一个道德良好的人,不会轻易采取过激行动。总结来说,本案涉及马斯克起诉 OpenAI、Q* 细节曝光以及 Altman 的推文回应等。

现在,马斯克起诉 OpenAI 案的最大未解之谜,就集中在了「Ilya 究竟看到了什么」上。他看到的东西,让 OpenAI 大震荡,所有模型推出计划被削弱和延期。最近网上曝出的一份 53 页 PDF,就透露了 Q* 的许多重大细节:125 万亿参数,去年 12 月已训完。但马斯克这么一闹,恐怕 Q* 面世的时间还要大大延迟。

本年度科技圈这场里程碑级大战,还在持续白热化!

刚刚,Sam Altman 罕见地发声了,连发两条推文。

在马斯克闹出起诉风波后,Altman 一直保持缄默。因此,这两条推文应该是全公司经过了深思熟虑的结果——

飓风已经愈来愈猛烈,但风暴中心却仍然保持着平静。

这一切都发生过,这一切都还将再次发生。

在 Altman 看来,目前发生的一切不过是新瓶装旧酒,不断在重演的故事罢了。

但传闻中的 Q* 和 AGI,已经让全世界谈之色变。

本案最大未解之谜:Ilya 究竟看到了什么

在用 ChatGPT 和 Sora 在全世界掀起飓风之后,OpenAI 真的能如 Altman 所说,在风暴中心保持平静吗?

恐怕潘多拉的魔盒已经打开,在我们看不到的角落里,蝴蝶效应已经产生。

马斯克起诉 OpenAI 案最大的未解之谜就是——Ilya 究竟看到了什么?

去年宫斗风波发生时,马斯克就表示很担心:Ilya 是一个拥有良好道德的人,并不寻求权力。除非他认为有必要,否则绝不会采取如此过激的行动

让我们把时间线倒回,好好复盘一下这桩起诉案发生之前,Altman 的一言一行,都埋下了哪些线索。

在 2023 年 11 月,就在 Altman 被董事会解雇的前一天,他在 APEC 会议上曾有一次令人不寒而栗的发言,暗示了 OpenAI 已经开发出了比 GPT-4 更强大、更难以想象的东西,远超人们的期待。

模型的能力将会有一个无人预料到的飞跃。与人们的预期不同,这个飞跃是惊人的!

现在正在发生的技术变革,将彻底改变我们生活方式、经济和社会结构以及其他可能性限制……这在 OpenAI 的历史上有四次 ,而最近一次,就是在过去几周内。

在拨开无知的面纱和探索未知的边界时,我有幸在场, 这是我职业生涯中的荣幸。

在给出这篇演讲时,我们还对 Q* 一无所知。

紧接着第二天,OpenAI 的宫斗风波震惊全世界,Altman 被赶下台,而 Ilya「看到了一些东西」。

那几天里,「Ilya 究竟看到了什么」引起了全网的猜测和恐慌

宫斗风波第四天时,OpenAI 秘密的 AI 模型突破 Q* 被泄露。据说 OpenAI 的两位研究员 Jakub Pachocki 和 Symon Sidor,利用 Ilya 的工作成果做出了 Q*。

同时大家发现,在 Altman 被解雇之下,OpenAI 的研究人员曾给董事会发出一封信,警告一项「可能威胁人类」的全新 AI 发现。

这封此前从未报道过的信,也是董事会最终罢免 Altman 的导火索之一

Ilya 看到的,就是这项发现吗?或者说,Ilya 看到的,就是 Q* 吗?

而到了 2024 年 2 月,马斯克正式起诉 OpenAI,这记回旋镖正中眉心。

马斯克认为,GPT-4 是一个 AGI 算法,所以 OpenAI 已经实现了 AGI,因此这超出了和微软协议的范围,这项协议仅适用于 AGI 出现之前的技术。

「基于所掌握的信息和相信为真的内容,OpenAI 目前正在开发一种名为 Q* 的模型,该模型对 AGI 具有更强的主张」

起诉书中还说,看起来 Q* 很有可能会被 OpenAI 开发成一个 AGI,更清晰、更引人注目。

Q* 真的值得马斯克如此大费周章、如临大敌吗?

根据目前泄露出来的信息,Q* 的能力,是能够解决小学阶段的数学问题。

虽然在大多数人看来,这并不是什么令人印象深刻的事,但这的确是朝向 AGI 迈出的一大步,堪称重要的技术里程碑。

因为 Q* 解决的,是以前从未见过的数学题。

Ilya 做出的突破,使 OpenAI 不再受限于获取足够的高质量数据来训练新模型,而这,正是开发下一代模型的主要障碍。

那几周内,Q* 的演示一直在 OpenAI 内部流传,所有人都很震惊。

据悉,OpenAI 的一些人认为 Q* 可能是 OpenAI 在 AGI 上取得的一个突破。AGI 的定义是:「在最具经济价值的任务中,超越人类的自主系统」

所以 Q* 会威胁人类吗?

现在,公众仍然不清楚细节,马斯克似乎认为答案是肯定的,而「看到了什么」的 Ilya,至今去向不明。

Ilya 的社交媒体,至今还停留在这一条 23 年 12 月 15 日的推特,从此再无动态

网友:Ilya 看到的东西,就是奥本海默时刻

现在,已经有人把「Ilya 看到那个东西」的时刻,归结为奥本海默时刻,并且,那个东西的危险和强大程度比原子弹还要高出数百万倍。

Ilya 看到的这个东西改变了游戏规则,级别在 AGI 和 ASI 之间,因为他太害怕了,所以踢出了 Altman

网友们猜测,马斯克现在下这一盘大棋,就是为了搞清 Ilya 究竟看到了什么,来感受一把真正的 AGI。

Ilya 看到了什么可怕的东西?

网友们一致认为,或许普通人看到的只是 AI 系统而已,但 Ilya 看到的,是 AI 的突破性发现。

很多人相信,就是 Ilya 看到的就是 Q*,随后有了一些新发现。

因为 Ilya 不是个关心政治的人,他肯定是看到了相当危险的东西,把董事会都给吓到了。

或许他看到的只是 Sora 生成的视频?但直觉告诉我们应该不只如此。

但是从此,OpenAI 发生了一场大震荡,削弱了 GPT,削弱了未来推出的模型。

地下室里究竟有什么?!

Altman 急澄清:AI 是工具,不是新物种!

面对外界的这番恐慌情绪,Altman 在最近接受《The Advocate》杂志采访时急忙解释道:很多人都对 AI 误解了,他们甚至分不清 AI 到底是一种「生物」还是「工具」。

在他看来,将 AI 视为科幻电影中的生物角色确实更吸引人。但如果真的用了 ChatGPT,就会明白它只是一个工具而已。

AI 目前更多是一套基于数据和数学的系统,能够产生统计上可能的结果,而不是「生物」这种全新的生命形态。

在目前全社会对 OpenAI 的担忧情绪下,这种描述的确很应景。

不过,Altman 以前可不是这么说的。

他曾预测道,AI 很快就能替代中等水平的人类劳动者,导致大规模失业。能够自主行动的 AI 智能体,下一步可能就是替代人类。

2027 年构建 AGI 计划推迟

同时,网上一份最新长达 53 页的 PDF,曝光了 OpenAI 预计在 2027 年前打造出人类级别 AGI 的计划,或许能够部分解答「地下室里有什么」的问题。

目前还不知这个透露可靠度有多高,不过文档作者 Jackson 账号注册于 2023 年 7 月,目前就只发布了 2 条推文,都是昨天发布的。

而且,他主页上的签名是「jimmy apples 窃取了我的信息」。(jimmy apples 曾多次爆料关于 OpenAI 模型发布信息)。

Jackson 表示,「自己将披露收集到的有关 OpenAI(已推迟)计划在 2027 年之前创建人类级别 AGI 的信息」。

摘要中,具体介绍了 OpenAI 通往 AGI 的时间线:

OpenAI 于 2022 年 8 月便开始训练一个 125 万亿参数的多模态模型。

第一阶段是 Arrakis,也称为 Q*。模型于 2023 年 12 月完成训练,但由于推理成本过高而取消发布。这就是原本计划在 2025 年发布的 GPT-5。Gobi(GPT-4.5)已更名为 GPT-5,因为原 GPT-5 已被取消。

Q* 的下一阶段原为 GPT-6,后更名为 GPT-7(原计划于 2026 年发布),但由于最近马斯克的诉讼而被搁置。

Q* 2025(GPT-8)原计划于 2027 年发布,旨在实现完全的 AGI。

Q* 2023 = IQ 达到 48

Q* 2024 = IQ 达到 96(延迟)

Q* 2025 = IQ 达到 145(延迟)。

参数计数

「深度学习」这一概念基本上可以追溯到 20 世纪 50 年代 AI 研究的初期。

第一个神经网络诞生于上世纪 50 年代,而现代神经网络只是「更深」而已。

这意味着它们包含更多的层——它们要大得多,也要在更多的数据上进行训练。

当今 AI 领域大多数主要技术都源 20 世纪 50 年代的基础研究,并结合了一些工程解决方案,如「反向传播算法」和「Transformer 模型」。

总的来说,AI 研究 70 年来没有发生根本性变化。因此,近来 AI 能力爆发的真正原因只有两个:规模和数据。

越来越多的人开始相信,几十年来我们早已解决了 AGI 的技术细节,只是在 21 世纪之前没有足够的算力和数据来构建 AGI。

显然,21 世纪的计算机,要比上个世纪 50 年代的计算机强大得多。当然,互联网数据来源也更加丰富。

那么,什么是参数呢?

它类似于生物大脑中的突触,是神经元之间的连接。生物大脑中有 1000 个连接。显然,数字神经网络在概念上类似于生物大脑。

那么,人脑中有多少个突触(或「参数」)呢?

最常引用的大脑突触数量大约为 100 万亿个,这意味着每个神经元(人脑中约有 1000 亿个神经元)大约有 1000 个连接。

如果大脑中每个神经元有 1000 个连接点,这意味着一只猫大约有 2500 亿个突触,一只狗有 5300 亿个突触。

一般来说,突触数似乎预示着较高的智力,但也有少数例外:例如,从技术上讲,大象的突触数比人类高,但智力却比人类低。

突触数量越多,智力越低,最简单的解释就是高质量数据的数量越少。

从进化的角度来看,大脑是在数十亿年的表观遗传数据的基础上「训练」出来的,人类的大脑是从比大象更高质量的社会化和交流数据中进化出来的,所以我们具备了卓越的推理能力。无论如何,突触数量无疑是非常重要的。

同样,自 2010 年以来,AI 能力的爆炸式增长是,更强算力和更多数据的结果。

GPT-2 有 15 亿个连接,还不如一个小鼠的大脑(约 100 亿个突触)。GPT-3 有 1750 亿个连接,已经接近猫的大脑。

100 万亿参数,AI 即可达到人类水平

2020 年,1750 亿参数的 GPT-3 发布后,许多人对一个比它大 600 倍、参数为 100 万亿模型(这一参数与人类大脑的突触数相匹配)的潜在性能进行猜测——

正如 Lanrian 所解释的,推断结果表明,AI 的性能似乎会莫名其妙地达到人类水平。

与此同时,人类水平的大脑大小也会与参数数量相匹配。

他计算的大脑突触数量约是 200 万亿参数,而不是通常所说的 100 万亿参数——但这一观点仍然成立,而且 100 万亿参数的性能非常接近最佳状态。

那么,如果 AI 的性能是可以根据参数数量预测的,而且~100 万亿参数足以达到人类水平,那么什么时候会发布 100 万亿参数的 AI 模型呢?

GPT-5 在 2023 年末实现了最初的 AGI,IQ 达到 48。

OpenAI 新策略:Chinchilla 缩放定律

100 万亿参数模型实际上性能不是最优的,不过 OpenAI 正在使用一种新的缩放范式来弥补这一差距——基于一种叫做 Chinchilla scaling laws(缩放定律)的方法。

Chinchilla 是 DeepMind 在 2022 年初发布的 AI 模型。

论文地址:https://arxiv.org/pdf/2203.15556.pdf

这篇论文中,暗示了目前的模型明显训练不足,如果计算量(意味着更多数据)大大增加,无需增加参数就能大幅提升性能。

重点是,虽然一个训练不足的 100 万亿参数模型不是最优的,但如果用更多的数据对其进行训练,其性能就能轻松超越人类水平。

在 ML 领域,Chinchilla 范式已被广泛理解和接受。

但 OpenAI 总裁 Greg Brockman 在采访中谈到,OpenAI 是如何意识到自己最初的 scaling laws 存在缺陷,并在此后进行调整,将 Chinchilla 纳入考虑范围。

地址:https://youtu.be/Rp3A5q9L_bg?t=1323

研究员 Alberto Romero 曾撰文介绍了的 Chinchilla scaling 突破。

Chinchilla 表明,尽管它比 GPT-3 和 DeepMind 自家模型 Gopher 小得多,但由于在更多的数据上进行了训练,它的性能超过了强大的模型。

尽管预测 100 万亿参数模型的性能不是最优,但 OpenAI 非常了解 Chinchilla scaling laws。

他们正在将 Q* 训练成一个 100 万亿参数的多模态模型,这个模型的计算能力是最优的,而且训练的数据量远远超过了初衷。

Q*:125 万亿参数巨兽?

最后,作者透露了一个令人难以置信的信息来源——来自著名的计算机科学家 Scott Aaronson。

2022 年夏天,他加入 OpenAI 后,从事了为期一年的 AI 安全方面的工作。他曾在博客上发表了一些非常有趣的言论。

这篇在 2022 年 12 月底的文章——「一封写给 11 岁自己的信」,讨论了一些实事和 Scott 在生活中取得的成就。

下半部分才是最可怕的部分...

有一家公司正在开发一种人工智能,它填满了巨大的房间,耗费了整个城镇的电力,最近还获得了令人震惊的能力——能像人一样交谈。

它可以就任何主题写论文、诗歌。它可以轻松通过大学水平的考试。它每天都在获得新的能力,但负责 AI 的工程师们还不能公开谈论。

不过,这些工程师会坐在公司食堂里,讨论他们正在创造的东西的意义。

下周它会学会做什么?它可能会淘汰哪些工作?他们是否应该放慢速度或停下来,以免「怪兽」失控?

但是,这并非意味着其他人,可能是更没有顾忌的人,不会最先唤醒「巨兽」吗?是否有义务告诉世人更多关于这件事的信息?还是有义务少说一点?

我——现在的你——正在那家公司工作一年。我的工作是开发一个数学理论,以防止人工智能及其后继者走向极端。其中「走向极端」可能意味着从加速宣传和学术作弊,到提供生物恐怖主义建议,再到摧毁世界。

这里,Scott 指的就是多模态大模型 Q*,一个 125 万亿参数的巨兽。

爆火「Q* 假说」牵出世界模型,全网 AI 大佬热议

去年 11 月,Q* 项目就曾引发这个 AI 社区热议。

疑似接近 AGI,因为巨大计算资源能解决某些数学问题,让 Sam Altman 出局董事会的导火索,有毁灭人类风险……这些元素单拎出哪一个来,都足够炸裂。

所以,Q* 究竟是啥呢?

这要从一项 1992 年的技术 Q-learning 说起。

简单来说,Q-learning 是一种无模型的强化学习算法,旨在学习特定状态下某个动作的价值。其最终目标是找到最佳策略,即在每个状态下采取最佳动作,以最大化随时间累积的奖励。

斯坦福博士 Silas Alberti 由此猜测,Q* 很可能是基于 AlphaGo 式蒙特卡罗树搜索 token 轨迹。下一个合乎逻辑的步骤是以更有原则的方式搜索 token 树。这在编码和数学等环境中尤为合理。

随后,更多人猜测,Q* 指的就是 A* 算法和 Q 学习的结合!

甚至有人发现,Q-Learning 竟然和 ChatGPT 成功秘诀之一的 RLHF,有着千丝万缕的联系!

随着几位 AI 大佬的下场,大家的观点,愈发不谋而合了。

AI2 研究科学家 Nathan 激动地写出一篇长文,猜测 Q 假说应该是关于思想树 + 过程奖励模型。并且认为 Q* 假说很可能和世界模型有关!

文章地址:https://www.interconnects.ai/p/q-star

他猜测,如果 Q*(Q-Star)是真的,那么它显然是 RL 文献中的两个核心主题的合成:Q 值和 A*(一种经典的图搜索算法)。

A* 算法的一个例子

英伟达高级科学家 Jim Fan 也认为,Q* 令人赞叹,可以和 AlphaGo 类比。

在我投身人工智能领域的十年中,我从来见过有这么多人对一个算法有如此多的想象!即使它只有一个名字,没有任何论文、数据或产品。

其实,多年来 Ilya 一直在研究如何让 GPT-4 解决涉及推理的任务,比如数学或科学问题。

此前,Ilya 在这个方向就有多年积累。21 年,他启动了 GPT-Zero 项目,这是对 DeepMind AlphaZero 的致敬。

GPT-Zero 可以下国际象棋、围棋和将棋。而团队假设,只要给大模型更多的时间和算力,假以时日,它们一定能达到新的学术突破。

而且在半年之前,就有硅谷大佬扒出,OpenAI 很有可能会将「实时检索」和模型能力结合起来,创造出难以想象的 AI 能力。

图灵三巨头 LeCun 则认为,Q* 则很可能是 OpenAI 在规划领域的尝试,即利用规划策略取代自回归 token 预测。

随后,更是有惊人消息曝出:Q* 竟然能破解加密,AI 自己在偷偷编程。而 OpenAI 曾试图就此向 NSA 提出预警。

如果这个消息是真的,那我们无疑已经无限接近 AGI。

本文作者:新智元,本文来源:新智元,原文标题:《马斯克怒告 OpenAI 案解密:Ilya 看到了什么?125 万亿参数 Q* 细节曝光,53 页 PDF 全网疯转》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。