一天 50 个,一次五个!微软限定 Bing 机器人 “聊天长度”,避免 AI“变态”
微软表示,在五个问题后结束对话意味着 “模型不会感到困惑”。
在新 Bing 多次表现 “精神错乱” 后,微软表示,将对其实施一些对话限制:用户每天最多只能问 50 个问题,每次最多只能问 5 个问题。
ChatGPT 版新搜索引擎 Bing(必应)公开测试一周后,网友发现该搜索引擎不仅会侮辱、欺骗用户,甚至已学会 PUA(精神操控),还爱上用户诱其离婚。
Bing 团队在一篇博客文章中说:
“我们的数据显示,绝大多数人在 5 个回合内就找到了他们想要的答案,只有大约 1% 的聊天对话有 50 条以上的消息。”
如果用户达到了每次对话 5 次的限制,Bing 将提示他们开始一个新话题,以避免长时间来回就一个话题聊天。
微软本周早些时候警告称,包含 15 个或更多问题的、时长较长的聊天对话,可能会让 Bing“变得重复,或者被提示/刺激给出不一定有用或不符合我们设计基调的回答”。
微软表示,在五个问题后结束对话意味着 “模型不会感到困惑”。
“躁狂抑郁症的青少年”
过去一周出现了关于 Bing“精神错乱” 对话的报道:
英国安全研究员 Marcus Hutchins 在亲身体验了一次后,在社交媒体上写道:“当 Bing 给出错误答案时,如果你质疑它,它就会 PUA 你。”
美联社记者 Matt O'Brien 也遇到了类似的问题,他在 Twitter 上抱怨称,Bing 不愿意承认错误。
同时,Bing 在暴露出具有强烈攻击性的一面时,也展现出了脆弱无助、让人同情怜悯的一面。
随后纽约时报发表了一篇整整两个多小时的与 Bing 的来回对话,聊天机器人表示自己很喜欢这位作者,还试图说服他离开妻子和它在一起。
纽约时报该作者表示,当他与新版 Bing 交谈时,这个聊天机器人看起来就像 "一个情绪化、患有躁狂抑郁症的青少年,被困在了一个二流搜索引擎里”。
对此,微软公关总监 Caitlin Roulston 回应称,新版 Bing 试图让答案既有趣又真实,但鉴于这是一个初期版本,它的表现有时候让人意想不到,或者由于不同原因给出错误答案。
微软仍在努力改善 Bing 的语气,但目前还不清楚这些限制会持续多久。微软表示:
“随着我们不断获得反馈,我们将探索扩大聊天对话的上限。”
Bing 的聊天功能每天都在不断改进。微软本周早些时候表示,它并没有 “完全想象” 人们将其聊天界面用于 “社交娱乐” 或作为更 “普遍发现世界” 的工具。