Meta 大动作!开源多感官 AI 模型,不仅能看会听,还能 “感知温度”

Wallstreetcn
2023.05.10 11:08
portai
I'm PortAI, I can summarize articles.

Meta 带着 ImageBind 再次冲进 AI 战场,当 AI 拥有了多种感官,且学会 “脑补”,Meta 的元宇宙梦还远吗?

前段时间,带着开源模型 LlaMA“杀的” 谷歌和微软 “措手不及” 的 Meta,又一次在 AI 战场上丢下了一颗重磅炸弹。

今天,Meta 重磅开源了多感官 AI 模型 ImageBind(https://github.com/facebookresearch/ImageBind)。以视觉为核心,结合文本、声音、深度、热量(红外辐射)、运动(惯性传感器),最终可以做到 6 个模态之间任意的理解和转换。

这也是第一个能够整合六种类型数据的 AI 模型。

如何让 AI 以更接近人类的方式理解这个世界?——也让 AI 拥有多种感官,学会 “脑补”。

一张大海的照片可以让我们的脑海里响起海浪的声音,回忆起海边腥咸的味道。当我们听到瀑布声,脑海里便会浮现恢弘的瀑布奇观。

Meta 指出,未来还将有其他可以被添加到模型中的感官输入流,包括 “触摸、讲话、气味和大脑 fMRI(功能性磁共振成像)信号”。与此同时,ImageBind 还可以进行跨模态检索,如火车喇叭音频,文本、深度、图片和视频。

尽管目前 ImageBind 只是一个研究项目,但它展示了未来人工智能生成多感官感知的可能性,或许也使 Meta 的元宇宙梦更近了。

Meta 在论文中解释称,他们把不同模态数据串联在了一个嵌入空间(Embedding Space),让其从多维度理解世界。

有网友评价道,imageBind 的出现使 AI 发展过程中又迎来了激动人心的时刻:

“这项创新为 AI 搜索能力、沉浸式 VR 体验和更高级的 AI 技术铺平了道路。对于 AI 爱好者和专业人士来说,激动人心的时刻即将到来!”。

有网友评论称,ImageBind 的诞生就是为了模拟人类感知。ImageBind 面世,贾维斯也不远了。

英伟达科学家 Jim Fan 点评道:自 LLaMA 以来,Meta 就在开源领域大放异彩。

不过,对于 Meta 开源大模型的做法,也有人提出了质疑。如 OpenAI 便表示,这种做法对创作者有害,竞争对手可以随意复制且可能具有潜在的危险,允许恶意行为者利用最先进的人工智能模型。

更接近人类感知的元宇宙?

相比 Midjourney、Stable Diffusion 和 DALL-E 2 这样简单的将文字与图像配对的生成器,ImageBind 试图让 AI 更接近人类的思考和感知方式:

可以连接文本、图像/视频、音频、3D 测量(深度)、温度数据(热)和运动数据(来自 IMU),且它无需先针对每一种可能性进行训练,直接预测数据之间的联系,类似于人类感知或想象的方式。

这个模型利用到了图像的绑定(binding)属性,只要将每个模态的嵌入与图像嵌入对齐,就会实现所有模态的迅速对齐。

简单来说就是图像成为了连接这些模态的桥梁。

例如 Meta 利用网络数据将文本与图像连接起来,或者利用带有 IMU 传感器的可穿戴相机捕捉到的视频数据将运动与视频连接起来。

Meta 在论文中指出,ImageBind 的图像配对数据足以将这六种模态绑定在一起。

模型可以更全面地解释内容,使不同的模态相互 “对话”,并找到它们之间的联系。

例如,ImageBind 可以在没有一起观察音频和文本的情况下将二者联系起来。这使得其他模型能够 “理解” 新的模态,而不需要任何资源密集型的训练。

具体而言,ImageBind 利用网络规模(图像、文本)匹配数据,并将其与自然存在的配对数据(视频、音频、图像、深度)相结合,以学习单个联合嵌入空间。

这样做使得 ImageBind 隐式地将文本嵌入与其他模态(如音频、深度等)对齐,从而在没有显式语义或文本配对的情况下,能在这些模态上实现零样本识别功能。

与此同时,Meta 表示,ImageBind 可以使用大规模视觉语言模型(如 CLIP)进行初始化,从而利用这些模型的丰富图像和文本表示。因此,ImageBind 只需要很少的训练就可以应用于各种不同模态和任务。

如果与其他 AI 结合,还可以做到跨模态的生成。

比如听到狗叫画出一只狗,同时给出对应的深度图和文字描述。

甚至还做到不同模态之间的运算,如鸟的图像 + 海浪的声音,得到鸟在海边的图像。

对此,Meta 在其官方博客中也说道,“ImageBind 可以胜过之前为一种特定模式单独训练的技术模型。但最重要的是,它能更好地一起分析许多不同形式的信息,从而推进人工智能的发展。”

Meta 团队认为,ImageBind 为设计和体验身临其境的虚拟世界打开了大门。或许也让 Meta 离幻想中的元宇宙世界更近了一步。

可以怎么搜?

模型具体可以怎么用?Meta 开放了模型演示,具体包括:

使用图像检索音频

以图像或视频作为输入,可以生成音频。比如选择一张小狗的图片,就能够检索到狗吠的音频。使用音频检索图像

通过一个音频片段,给出一张对应的图。听着鸟鸣,小鸟的图片便出现了。

使用文本来检索图像和音频

选择下面的一个文本提示,ImageBind 将检索与该特定文本相关的一系列图像和音频片段。

使用音频 + 图像来检索相关图像

给一段狗叫声再加一张海滩的图片。ImageBind 可以在几分钟内检索出相关图像。

得到了一张 “狗望海” 的图:

使用音频来生成图像

要想实现音频生图像,ImageBind 需要和其他模型一起结合用,比如 DALL-E 2 等生成模型。

来个下雨哗啦啦的声音,身在其中的意境图就来了。

ImageBind 的性能有多卓越?——打败专家模型

在 Meta 研究科学家于近期发布的题为《IMAGEBIND:一个嵌入空间绑定所有模态》(《IMAGEBIND: One Embedding Space To Bind Them All》https://dl.fbaipublicfiles.com/imagebind/imagebind_final.pdf)的论文中指出,ImageBind 模型的第一大优势在于,仅通过很少的样本及训练,模型性能便可提高:

此前,往往需要收集所有可能的配对数据组合,才能让所有模态学习联合嵌入空间。

ImageBind 规避了这个难题,它利用最近的大型视觉语言模型,将零样本能力扩展到新的模态。

Meta 的模型具有小模型所不具备的出色能力,这些性能通常只会在大模型中才会呈现。比如:音频匹配图片、判断照片中的场景深度等等。

Meta 的研究表明,视觉模型越强,ImageBind 对齐不同模态的能力就越强。

在实验中,研究人员使用了 ImageBind 的音频和深度编码器,并将其与之前在 zero-shot 检索以及音频和深度分类任务中的工作进行了比较。

结果显示,ImageBind 可以用于少量样本的音频和深度分类任务,并且优于之前定制的方法。

而以图像/视频为中心训练好 AI 后,对于原始数据中没有直接联系的模态,比如语音和热量,ImageBind 表现出涌现能力,把他们自发联系起来。

在定量测试中,研究人员发现,ImageBind 的特征可以用于少样本音频和深度分类任务,并且可以胜过专门针对这些模态的先前方法。

在基准测试上,ImageBind 音频和深度方面优于专家模型

比方说,ImageBind 在少于四个样本分类的 top-1 准确率上,要比 Meta 的自监督 AudioMAE 模型和在音频分类 fine-tune 上的监督 AudioMAE 模型提高了约 40% 的准确率。

Meta 希望,AI 开发者社区能够探索 ImageBind,来开发其可以应用的新途径。

Meta 认为,关于多模态学习仍有很多需要探索的地方。ImageBind 这项技术最终会超越目前的六种 “感官”,其在博客上说道,“虽然我们在当前的研究中探索了六种模式,但我们相信引入连接尽可能多的感官的新模式——如触觉、语音、嗅觉和大脑 fMRI 信号——将使更丰富的以人为中心的人工智能模型成为可能。”