
一週三次 “標誌性失敗”!AI 要從 “超紅” 變 “黑紅” 了?

生成式 AI 最大的缺陷,是人類的缺陷。
過去一週,人工智能領域有三個大的新聞:
一是特斯拉 “召回”36 萬輛車具有全自動駕駛功能的電動汽車,以解決其全自動駕駛系統在十字路口周圍做出的不安全行為及超速問題,消息當天特斯拉收跌 5.7%。
二是聊天機器人Bard 錯誤頻出,谷歌要求進行回爐重造,並動員公司全員進行內測。上週在相關消息傳出後,谷歌市值一夜蒸發千億美元。
三是微軟新版 Bing公開測試一週後,網友發現該搜索引擎不僅會侮辱、欺騙用户,甚至已學會 PUA(精神操控),還愛上用户誘其離婚。微軟已經表示將限定 Bing 機器人 “聊天長度”,避免 AI“變態”。
紐約大學心理學和神經科學教授 Gary Marcus 表示,有人在 Twitter 上説這是三個不同的問題,但並不是,“特斯拉召回、微軟 Bing 失敗和谷歌 Bard 失敗並不是獨立的,每一個都反映了一個事實,那就是我們不能僅靠大數據和深度學習在現實世界中構建人工智能”。
“同時發生的內爆會將 AI 打入寒冬嗎?” Marcus 問到。
他在 Twitter 上説,我們需要新的方法,目前 AI 已經被過度營銷。

從假新聞到假觀點,AI 會讓互聯網 “更假”?
近期 ChatGPT 火爆全球,讓人們看到了人工智能的飛速發展。
有分析稱,ChatGPT 顯然是一個強大的新工具,有潛力在許多領域做很多好事,但也會有不利的一面。其中,像 ChatGPT 這樣的 AI 將能夠對任何事情產生無限的、幾乎免費的 “意見”。但與此同時也會產生很多虛假觀點,並侵蝕自由主義話語中的另一個信任支柱,即活躍在線上的是真實的人。
如今,網絡上的假新聞氾濫已經成為一個全球性的問題。假新聞以不實資訊誤導大眾,以帶來政治、經濟、市場利益或心理成就感的新聞或宣傳,包括通過傳統新聞媒體(印刷和廣播)或在線社交媒體傳播故意錯誤資訊或惡作劇,並形成一種負面循環。
毫無疑問,處理故意的假新聞是一個難題。而 AI 如果分享的是虛假觀點,可能會產生更大的影響。宣傳者明白這一點:讓一個人相信某件事,最有效的策略也許就是讓他們相信大多數和他們一樣的人已經相信了這件事。
與過去的機器人不同,ChatGPT 或類似的 AI 不需要發送幾乎完全相同觀點的複製粘貼語句。它們可以模仿人類,在一系列主題中產生無限連貫、細緻入微和完全獨特的內容。
分析稱,由一個 AI 運行的 Facebook 賬户可能會一開始每天發佈食譜或關於它的狗的故事,過幾個月或幾年後才開始散佈一些觀點,比如,烏克蘭應該為俄烏衝突負責。數以百萬計的人可以、也將會在幾乎沒有成本的情況下創建這樣的賬户。
機器人賬户不僅會主動發帖,還會對其他用户的帖子做出反應,並參與長期對話。它們可以被編程為尋找特定的關鍵詞,如 “烏克蘭”、“北約” 或 “普京”,分析過去的文章,並給出合理的回答。
幾乎免費的意見的無限供應可能會排擠真實的——即人類的——貢獻。一旦機器人專家變得與人類無法區分,人類將開始質疑網絡上每個人的身份,尤其是那些與他們意見相左的人。
分析還稱,儘管 AI 還不成熟,但技術的侷限性並不妨礙播下不信任的種子。某種意義上,技術侷限甚至可能是一種功能,而不是 bug。
在 Twitter 上隨機爭論的用户並不以其言論的準確性和複雜性而聞名。錯誤、不準確,甚至是編造的消息來源都可能給機器帶來人性化的感覺。最重要的是可信度,當前版本的 ChatGPT 製造可信內容的能力肯定不比普通 Twitter 用户差。
生成式 AI 是一面鏡子:它最大的缺陷是人類的缺陷
也有分析指出,生成式 AI 有時會被批評有偏見、不準確甚至自相矛盾,但這些都不是生成式 AI 本身的特徵。問題的根本原因是,我們訓練神經網絡來模擬的人類創造的內容是有偏見的、不準確的、自相矛盾的。為什麼?因為我們,創造它的人,每個人都有自己的偏見,會犯錯誤,然後這些內容被用作訓練神經網絡的語料庫。
一種可能的解決方案是確保當我們訓練神經網絡時,我們提供給它的內容是公正、準確和邏輯一致的。除非我們這樣做,否則我們只是在模仿和延續過去的錯誤:輸入垃圾,輸出垃圾。到目前為止,這個問題一直困擾着 OpenAI 的 GPT 系列模型,因為它們都被提供了大量網絡的快照,作為它們應該模仿的內容的基礎。
網絡當然不是完全公正、準確和邏輯一致的,這就是為什麼 OpenAI 對其模型進行了編碼包裝,以試圖防止用户得到模型可能產生的最壞結果——到目前為止,這只是部分成功。
不幸的是,確保用於訓練神經網絡的內容公正準確,説起來容易做起來難。另一種可能更現實的方法是試圖確定神經網絡存儲信念的位置,然後編輯這些信念以使其準確,或者刪除錯誤的信念,否則會與同樣持有的正確信念相排斥。
無論採取何種方法,更棘手的挑戰將是找出誰來決定哪些信念是有偏見的、不準確的或不合邏輯的,哪些不是。這與其説是一個技術挑戰,不如説是一個文化和社會挑戰。
分析指出,在決定語料庫或模型的哪些部分是有偏見的、不準確的或不合邏輯的複雜過程中,以人為本的設計過程將是必不可少的,因為它強調理解使用系統的人的真實需求和生活經驗,並經常迭代以達到更高的質量。
