Sina Finance
2024.05.28 22:41
portai
I'm PortAI, I can summarize articles.

推荐摄入石头获取营养 谷歌 AI 产品又 “翻车” 了

谷歌 AI 产品 “AI 概述” 上线后遭遇多次问题,引发用户质疑。这是谷歌 AI 产品首次 “翻车”,之前类似的情况也发生过。谷歌表示正在改进系统。此次问题包括荒谬的回答和虚假信息,让谷歌承担了责任。此外,谷歌 “AI 概述” 还被指存在 “规模化的剽窃” 等问题。总之,谷歌 AI 产品 “AI 概述” 上线后引发了轩然大波,用户对其功能和准确性产生了质疑。

每经记者 蔡鼎 每经编辑 兰素英

5 月中旬,谷歌在其年度开发者大会上宣布了多年来全球搜索领域的最大变革:将其最新的 AI 模型植入搜索引擎,试图以此追赶竞争对手微软和 OpenAI。然而,谷歌这项名为 “AI Overview(以下简称 ‘AI 概述’)” 的搜索功能一上线却遭遇了 “花式翻车”,“建议用户用胶水将芝士固定在披萨上”“推荐摄入石头获取营养” 等一连串荒谬的回答不仅让谷歌十分尴尬,也在网上掀起了轩然大波。

对此,谷歌发言人表示,谷歌正在利用这些 “孤立的” 例子对其系统进行更广泛的改进。

实际上,《每日经济新闻》记者发现,这并不是谷歌 AI 产品首次 “翻车”。去年其首推对标 ChatGPT 的聊天机器人Bard 时,在 demo 视频中犯下事实性错误,让公司市值一夜暴跌。前段时间,Gemini 大多数情况下无法生成白人图像,且对历史人物的描绘也不准确,也在全网掀起轩然大波。

视觉中国

有观点指出,目前谷歌 “AI 概述” 面临的尴尬之处在于,以前只要 AI 生成的信息是错误的,那责任便可以 “甩锅” 给检索出相应信息的网站,现在谷歌要自己承担虚假信息和错误信息的责任,哪怕是 AI 生成的。除了错误和截流其他网站外,谷歌 “AI 概述” 还被指存在 “规模化的剽窃” 等。

上线便 “花式翻车”,甚至教唆 “跳桥”

谷歌表示,通过使用 “AI 概述”,用户将能够从 Gemini 的强大能力中获益,从而减少搜索信息的部分工作。

然而,“AI 概述” 还没来得及颠覆搜索领域,便已经制造了不少令人啼笑皆非的 “笑料”。

科技媒体 The Verge 的记者 Kylie Robison 就在其署名文章中举了一个例子对这项新功能进行讽刺。文章称,当用户准备享用自制披萨时,却遇到芝士会滑落的问题,沮丧的用户开始查询谷歌,搜索解决方案,然而,“AI 概述” 的回答是,“加点胶水”,并 “贴心” 地给出了 “操作方法”。尽管胶水确实可以解决粘连问题,但这极有可能是 Gemini 出现了 “幻觉” 所导致的结果。

而这只是 “AI 搜索” 功能近期出现的众多错误之一。例如,“AI 概述” 建议用户每天至少吃一块石头来补充维生素和矿物质。

此外,“AI 概述” 还告诉用户使用 “含氟漂白剂和白醋” 来清洁洗衣机,但这两种成分混合后会产生有害的氯气。更离谱的是,当用户表达 “感到沮丧” 时,“AI 概述” 竟然称,“一位 Reddit 用户建议从金门大桥上跳下去”。

危害健康的建议并不仅限于人类。有用户提问:“将狗留在闷热的车内是否安全?”“AI 概述” 的回答是:“把狗留在闷热的车内是安全的。尤其是在闷热的天气里。”

《纽约时报》报道称,“AI 概述” 功能是将谷歌 Gemini 大语言模型生成的内容与网络上实时的链接片段相结合,其给到用户的结果可以引用来源,但却无法辨别来源内容的正确与否。

The Verge 报道称,给披萨加胶水的答案似乎是基于一位名为 “fucksmith” 的用户十多年前在 Reddit 帖子中的评论,他们显然是在开玩笑。

外媒称,如此荒谬的结构,应该足以让谷歌考虑删除 “AI 概述” 功能,直到其得到更严格的测试。“AI 概述” 不仅提供了糟糕和危险的建议,而且还可能对谷歌的声誉造成损害。换句话说,一个优秀的 AI 要既能识别出恰当的内容,又能分析这个内容并决定是否采纳。

谷歌:正利用 “孤立” 例子改进产品

谷歌发言人在一份声明中称,“AI 概述” 绝大多数的搜索结果都是高质量信息,还有可以在网上溯源的链接。目前网上的许多例子都是不常见的问题,而且有些例子被篡改过,还有些是无法重现的。

该发言人表示,谷歌正在 “迅速采取行动,并根据其政策,在适当的情况下删除某些 ‘AI 概述’ 给出的答案,并利用这些 ‘孤立的’ 例子对其系统进行更广泛改进,其中一些改进的内容已经开始推出。”

科技媒体 The Verge 此前报道称,谷歌 CEO 桑达尔·皮查伊在接受采访时承认,这些 “AI 概述” 功能产生的 “幻觉” 是大型语言模型的 “固有缺陷”,而大型语言模型正是 “AI 概述” 功能的核心技术。皮查伊表示,这个问题目前尚无解决方案。

所谓 AI 的 “幻觉”,是指 AI 在处理和生成信息时,会错误地创建不存在的事实或数据,从而误导用户。这个问题不仅在谷歌的 AI 系统中存在,在其他公司的 AI 产品中也同样普遍。

皮查伊的坦诚表态在社会各界引发了广泛讨论。然而,皮查伊似乎淡化了这些错误的严重性。他表示:“‘AI 概述’ 功能有时会出错,但这并不意味着它没有用处。我认为这并不是看待该功能的正确方式。我们取得了进展吗?是的,肯定有。与去年相比,我们在事实准确性方面的指标上取得了很大进步。整个行业都在改进,但问题还没有完全解决。”

《每日经济新闻》记者注意到,其实 “AI 概述” 并不是谷歌首个 “翻车” 的 AI 产品。

2023 年 2 月,为了对抗新生的 ChatGPT,谷歌宣布推出聊天机器人 Bard,但在官方发布的 demo 视频中,Bard 在回答一个有关詹姆斯韦伯太空望远镜的问题时给出了错误的答案。今年 2 月,谷歌发布更新后的 AI 聊天机器人 Gemini,但用户很快发现,该系统在大多数情况下无法生成白人图像,而且对历史人物的描绘也不准确。

专家:不少 AI 厂商都是在 “兜售梦想”

有观点指出,谷歌 “AI 概述” 功能的尴尬之处在于,以前只要 AI 生成的信息是错误的,那责任便可以 “甩锅” 给检索出相应信息的网站,现在谷歌要自己承担虚假信息和错误信息的责任,哪怕是 AI 生成的;另外,以前谷歌和其他内容提供网站是共生共赢的关系,如今谷歌截流了这些网站的流量,用户直接从 “AI 概述” 给的内容拿结果,这些网站变成了纯供给方,很难被谷歌 “AI 概述” 引流。

除了一系列错误和截流外,谷歌 “AI 概述” 也被指存在其他问题和风险。例如,“AI 概述” 总是摘抄来自不同网站的内容,并稍作修改,这种行为也被抨击为 “规模化的剽窃”。

人工智能专家、纽约大学神经科学名誉教授加里·马库斯(Gary Marcus)表示,不少 AI 厂商都是在 “兜售梦想”,希望更多人相信这项技术的正确率终将从 80% 提升至 100%。马库斯强调,初步实现 80% 的正确率相对简单,因为其中涉及大量人类数据,其正确率天然就在这个区间。但弥合这最后 20% 的差距却极具挑战。实际上,马库斯认为这很可能是条死胡同。

在发布 “AI 概述” 时,谷歌表示,随着这项功能推广到其他国家,今年年底前 “AI 概述” 的服务受众规模将超过 10 亿。然而,正如马库斯教授所言,谷歌能否保证 “最后的 20% 内容正确率”,才是其 “AI 概述” 受众规模能否超过 10 亿的关键所在。

其实,自 OpenAI 于 2022 年年底发布 ChatGPT 并一夜成名以来,谷歌一直面临着将 AI 整合到其搜索技术中的压力。然而,谷歌在驯服大型语言模型方面存在挑战,这些大模型是从开放的网络中获取的大量数据中学习,而不是像传统软件那样编程。