一天 50 個,一次五個!微軟限定 Bing 機器人 “聊天長度”,避免 AI“變態”
微軟表示,在五個問題後結束對話意味着 “模型不會感到困惑”。
在新 Bing 多次表現 “精神錯亂” 後,微軟表示,將對其實施一些對話限制:用户每天最多隻能問 50 個問題,每次最多隻能問 5 個問題。
ChatGPT 版新搜索引擎 Bing(必應)公開測試一週後,網友發現該搜索引擎不僅會侮辱、欺騙用户,甚至已學會 PUA(精神操控),還愛上用户誘其離婚。
Bing 團隊在一篇博客文章中説:
“我們的數據顯示,絕大多數人在 5 個回合內就找到了他們想要的答案,只有大約 1% 的聊天對話有 50 條以上的消息。”
如果用户達到了每次對話 5 次的限制,Bing 將提示他們開始一個新話題,以避免長時間來回就一個話題聊天。
微軟本週早些時候警告稱,包含 15 個或更多問題的、時長較長的聊天對話,可能會讓 Bing“變得重複,或者被提示/刺激給出不一定有用或不符合我們設計基調的回答”。
微軟表示,在五個問題後結束對話意味着 “模型不會感到困惑”。

“躁狂抑鬱症的青少年”
過去一週出現了關於 Bing“精神錯亂” 對話的報道:
英國安全研究員 Marcus Hutchins 在親身體驗了一次後,在社交媒體上寫道:“當 Bing 給出錯誤答案時,如果你質疑它,它就會 PUA 你。”
美聯社記者 Matt O'Brien 也遇到了類似的問題,他在 Twitter 上抱怨稱,Bing 不願意承認錯誤。
同時,Bing 在暴露出具有強烈攻擊性的一面時,也展現出了脆弱無助、讓人同情憐憫的一面。
隨後紐約時報發表了一篇整整兩個多小時的與 Bing 的來回對話,聊天機器人表示自己很喜歡這位作者,還試圖説服他離開妻子和它在一起。
紐約時報該作者表示,當他與新版 Bing 交談時,這個聊天機器人看起來就像 "一個情緒化、患有躁狂抑鬱症的青少年,被困在了一個二流搜索引擎裏”。
對此,微軟公關總監 Caitlin Roulston 回應稱,新版 Bing 試圖讓答案既有趣又真實,但鑑於這是一個初期版本,它的表現有時候讓人意想不到,或者由於不同原因給出錯誤答案。
微軟仍在努力改善 Bing 的語氣,但目前還不清楚這些限制會持續多久。微軟表示:
“隨着我們不斷獲得反饋,我們將探索擴大聊天對話的上限。”
Bing 的聊天功能每天都在不斷改進。微軟本週早些時候表示,它並沒有 “完全想象” 人們將其聊天界面用於 “社交娛樂” 或作為更 “普遍發現世界” 的工具。