What are tech giants focusing on? Aligning values with artificial intelligence! Microsoft has entered the game.

华尔街见闻
2024.02.29 21:07

美国新兴初创公司 Synth Labs 新晋获得了微软旗下风投基金 M12,以及谷歌前 CEO 施密特的深度科技风投基金种子轮融资,力求确保 AI 系统按照人类的意图来运作,防范 AI 失控风险。AI 对齐俨然成为 AI 领域热门的核心议题。

由微软支持的 OpenAI 和 Alphabet 旗下的谷歌等知名科技公司与机构,正在越来越多地将人力、资金和算力等资源用于解决 “人工智能价值对齐”(AI alignment)这一核心问题。

最新消息显示,由非营利性人工智能研究组织 EleutherAI 孵化出的美国新兴初创公司 Synth Labs,已从微软旗下风投基金 M12 和谷歌前 CEO 施密特(Eric Schmidt)的深度科技风投基金 First Spark Ventures 处成功筹集了种子轮融资,将用于帮助一系列公司确保其 AI 系统按照人类的意图来运作。

据 Synth Labs 的官网介绍,该机构正在开展透明、可审计的人工智能对齐前沿研究,将与顶尖研究学校和全球独立研究者社区合作,力求建立一个完全可审核且强大的 AGI(通用人工智能)对齐平台,实现预训练、规模化、自动化数据集的管理和增强,并侧重于开源模型。

其官网称,当前的 “对齐” 方法不够有效,对 AI 模型的评估更差,这导致 AI 软件的运行效果往往不尽如人意。人类意图中的丰富偏好被统一的模型瓦解,基于人类原始数据的模型培训无法拓展,但这些模型理应拥有自动适应和拓展的能力。

据腾讯研究院等多方资料介绍,人工智能对齐,也可称为人工智能价值对齐,指的是引导 AI 系统的行为,使其符合设计者的利益和预期目标,特别是要确保 AI 追求与人类价值观相匹配的目标,确保 AI 以对人类和社会有益的方式行事,不对人类的价值和权利造成干扰与伤害。

随着人工智能技术的快速发展和应用普及,AI 的多任务学习能力和泛化能力越来越强,也令人工智能对齐成为 AI 控制与 AI 安全的重要议题,以期防范可能带来的风险与挑战。

曾有研究者认为,必须在超级人工智能诞生前解决对齐问题,因为一个设计不够完善的超级人工智能可能会从理性上迅速掌握可控制权,并拒绝创造者对其进行任何修改。

而如果 AI 与人类的价值观不能对齐,可能会出现以下风险:AI 的行为不符合人类意图的目标;在多种设定目标冲突时做出错误取舍;伤害人类的利益;以及脱离控制等。

目前,OpenAI 成立了对齐团队并提出 InstructGPT 模型,其竞争对手、由谷歌支持的 Anthropic 也将 “AI 对齐” 作为 Claude 模型的开发重点,致力于打造 “更安全的 AI 聊天机器人”。

Synth Labs 联合创始人、也是领先的人工智能研究组织 CarperAI 创始人 Louis Castricato 对媒体称,过去几个月,Synth Labs 已经构建了可在多个复杂主题上轻松评估大语言模型表现的工具,目标是普及易于使用的工具,后者可以自动评估和对齐人工智能模型。

Synth Labs 近期撰写的研究论文称,他们在 OpenAI 的 GPT-4 以及 Stability AI 的 Stable Beluga 2 人工智能模型生成对提示语的回答基础上创建了一个数据集,随后将其用于一个自动化流程,以指导 AI 聊天机器人避免谈论某个话题,并开启谈论另一个话题。

而孵化了 Synth Labs 的 EleutherAI 则称,希望通过独立研究更好地了解人工智能如何运作和演进,确保 AI 继续为人类的最大利益服务,为此他们将在透明和协作的基础上,对市面上现有的人工智能模型进行研究、训练并公开发布一系列大语言模型。该组织还倾向于开源人工智能:

“关于人工智能的未来和部署的决策,不应完全由那些寻求利用人工智能盈利的科技公司做出。”