急於應戰 ChatGPT 不管倫理道德?谷歌內測員工稱 Bard 是 “病態的騙子”、答覆可能讓人喪命

華爾街見聞
2023.04.19 18:34
portai
I'm PortAI, I can summarize articles.

媒體稱,去年 12 月內部拉響 “紅色警報” 後,谷歌高層認定,雖然還需要讓道德團隊參與,但只要將新產品稱為 “實驗”,公眾就可能原諒產品的缺點;現在谷歌的道德團隊被剝奪權力,士氣低落。

上月谷歌正式公測人工智能(AI)聊天機器人 Bard,這一正面對抗 ChatGPT 的重大行動背後可能有隱患。媒體發現,為了在 AI 競賽中不落於人後,谷歌在推出 Bard 時並沒有遵循以往的道德倫理承諾。

在 Bard 公測前,谷歌要求員工做內部測試。媒體稱,相關截圖顯示,內部討論時,有一名谷歌員工得出了 Bard 是個 “病態的騙子” 這種結論,另一人形容 Bard 令人感到尷尬。

具體到 Bard 的回答方面,一名參與內測的谷歌員工稱,Bard 給出的飛機如何着陸建議往往會導致墜機。另一人稱,Bard 給出的水肺潛水答覆可能導致潛水者受重傷、甚至喪命。

去年 12 月,在 ChatGPT 橫空出世後不久,谷歌管理層就發出了 “紅色代碼”(red code)級別的警告。此前媒體稱,谷歌 CEO Sundar Pichai 要求谷歌旗下產品儘快接入生成式 AI,該警報催生了谷歌內部數十個生成式 AI 集成計劃,谷歌聯合創始人 Sergey Brin 甚至親自下場給 Bard 寫代碼。還有媒體提到,在員工中測試 Bard 也是紅色代碼計劃的一部分。

本週三媒體指出,2021 年,谷歌曾承諾,要將研究 AI 倫理道德的團隊成員擴大一倍,而且要投入更多資源評估 AI 技術的潛在危害。但去年 11 月 ChatGPT 問世後大受歡迎,谷歌在此後幾個月內竭力將 ChatGPT 同類的生成式 AI 融入旗下所有重要產品。谷歌這種明顯加快步伐的變化可能產生深遠的社會影響。

媒體提到,一些曾在谷歌工作和目前還為谷歌效力的員工透露,去年 12 月拉響 “紅色警報” 後,谷歌高層領導改變了風險偏好,他們認定,儘管還需要讓道德團隊參與其中,但只要將新產品稱為 “實驗”,公眾就可能原諒產品的缺點。

上述員工稱,此前谷歌承諾強化的道德規範工作團隊現在被剝奪了權力,士氣低落。負責新產品安全和道德影響的員工被告知,不要妨礙、或試圖扼殺一切正在開發的生成式 AI 工具。

谷歌本週三回應媒體稱,負責任的 AI(responsible AI)仍然是公司的首要任務。“我們將繼續投資一些團隊,他們致力於將我們的 AI 原則應用於我們的技術。”

至少目前看來,谷歌在 AI 道德方面還有所警惕。

華爾街見聞上月提到,從谷歌員工處獲悉,谷歌給 Bard 加入了很多 responsible AI 方面的工作,在正式發佈公測前,谷歌耗費大量時間做出了完備的合規測試。從這個角度看,相比 ChatGPT 的驚豔表現,多數用户評價 Bard 平淡無奇可能是谷歌有意為之。換句話説,谷歌認為 Bard 可以 “無聊”,可以出錯,但不能 “越界”。

上週日,谷歌的 CEO Sundar Pichai 警告,如果對 AI 部署不當,可能造成非常嚴重的危害。儘管存在緊迫感,Pichai 仍警告企業不要被捲入到競爭態勢中。他認為,社會還沒有為 AI 的快速發展做好準備,因此需要更強有力的監管。