
How should AI be regulated? Debate within the industry intensifies as Alphabet-C and OpenAI have serious disagreements.

OpenAI 和微軟最近一直在鼓吹由政府來監管 AI 技術,甚至提到要建立一個類似國際原子能機構的政府間組織來監管 AI;但谷歌則不希望 AI 監管一切都由政府統領,該公司更傾向於由現有的監管機構來解決 AI 在各個領域帶來的挑戰。AI 領域的其他人,包括研究人員,也表達了和谷歌類似的觀點。
隨着 ChatGPT 大火帶來的 AI 熱潮,如今,如何監管 AI 技術成為市場熱議的話題。
一份最新的文件顯示,谷歌和 OpenAI 這兩大 AI 領域的領導者對政府應如何監管人工智能持有相反的看法。
OpenAI 首席執行官 Sam Altman 最近一直在鼓吹由政府來監管 AI 技術,甚至提到要建立一個類似國際原子能機構的政府間組織來監管 AI,而且他認為,該機構應該專注於監管 AI 技術,以及為使用該技術的實體頒發許可。但谷歌則不希望 AI 監管一切都由政府統領,該公司更傾向於 “多層次、多利益相關者的 AI 治理方法”。
AI 領域的其他人,包括研究人員,也表達了和谷歌類似的觀點,稱政府部門對 AI 進行監管可能是保護邊緣化社區的更好方式——儘管 OpenAI 認為技術進步太快無法採用這種方法。
谷歌稱:
在國家層面,我們支持中心輻射式方法——由美國國家標準與技術研究院(NIST)等中央機構通知部門監管機構監督 AI 實施——而不是一個 “人工智能部門”。AI 將在金融服務、醫療保健和其他受監管的行業帶來前所未有的挑戰,這些挑戰將由具有這些行業經驗的監管機構來應對,而不是一個新的、獨立的部門來監管。
華盛頓大學計算語言學實驗室教授兼主任 Emily M. Bender 説:
我完全同意所謂的 AI 系統不應該在沒有某種認證程序的情況下部署。但是這個過程應該取決於系統的用途。現有的監管機構應保持其管轄權和決定權。
谷歌的這一觀點與 OpenAI 和微軟偏愛更集中的監管模式形成鮮明對比。微軟總裁 Brad Smith 表示,他支持組建一個新的政府機構來監管人工智能,而 OpenAI 的創始人們也公開表達了他們的願景,即組建一個類似國際原子能機構的組織來監管 AI。
谷歌全球事務總裁 Kent Walker 表示,他 “不反對” 由新監管機構監督大型語言模型許可的想法,但表示政府應該 “更全面地” 看待這項技術。
谷歌和微軟在監管方面看似相反的觀點表明人工智能領域的爭論越來越多,爭論遠遠超出了技術應該受到多少監管的範疇。
今年 5 月,美國副總統哈里斯在會見了 AI 界重要公司的領導人後稱,這項技術 “有可能極大地增加對安全和安保的威脅,侵犯公民權利和隱私,並侵蝕公眾對民主的信任和信心”。
她補充説,企業有責任遵守現有的法律,以及 “倫理、道德和法律責任,以確保其產品的安全和保障”。
