
重磅!Open AI 發佈 ChatGPT 安全方法

在各國政府接連頒佈 ChatGPT 禁令後,Open AI 在這關鍵節點發布安全方法,就構建安全、可靠的 AI 產品,尊重隱私,保護兒童及提高生成數據準確性等多方面制定政策。
4 月 6 日凌晨,Open AI 在官網發佈了《Our approach to AI safety》,以確保安全、可靠地為全球用户提供 ChatGPT 服務。(地址:https://openai.com/blog/our-approach-to-ai-safety)
目前,ChatGPT 的安全問題受到了全球多數國家的高度關注。意大利則直接禁用 ChatGPT,歐洲多數國家也開始紛紛重視 ChatGPT 是否侵犯數據隱私等。一時間生成式 AI 的數據安全成為熱門話題。
Open AI 在這關鍵節點發布安全方法,這對其未來發展乃至整個 AIGC 行業都起到了關鍵的保護和穩定軍心的作用。

構建安全、可靠的 AI 產品
Open AI 表示,在發佈任何新系統之前,會進行嚴格的測試。聘請外部專家提供反饋,通過人工反饋強化學習等技術改進模型的行為,並構建廣泛的安全和監控系統。
例如,Open AI 的最新模型 GPT-4 完成訓練後,花了 6 個多月的時間在整個組織內開展工作,以使其在公開發布之前更安全、更一致。
Open AI 認為,強大的人工智能系統應該接受嚴格的安全評估。需要監管以確保採用此類做法,Open AI 將積極與政府合作,以制定此類監管的最佳框架。
從實踐中學習、優化、改善
Open AI 正在努力在部署前預防可預見的風險,但是,在實驗、研發的過程中得到的反饋是有限的,儘管進行了嚴謹、廣泛的測試仍然無法預測人們使用 ChatGPT 所產生的各種意外後果。所以,從實踐項目中學習、優化和改善產品,成為重中之重。
Open AI 通過自己的服務和 API,以幫助開發人員可以將最強大的大語言模型直接集成到產品中。這可以使得 Open AI 能夠監控濫用行為並採取行動,並不斷構建完善的緩解措施,保證 Open AI 的產品被用在安全、合規的項目上。
隨着全球用户使用的深入,這促使 Open AI 需要制定更細緻、周全的對策來應對各種可能出現的危險。
保護兒童
保護兒童的安全一直是 Open AI 的重點工作。Open AI 要求人們必須年滿 18 歲,或在父母同意的情況下年滿 13 歲才能使用 Open AI 的產品。Open AI 正在研究驗證選項。
Open AI 不允許其產品用於生成仇恨、騷擾、暴力或成人內容等。與 GPT-3.5 相比,Open AI 最新的模型 GPT-4 響應,非法內容請求的可能性降低了 82%,並且已經建立了一個強大的系統來監控濫用情況。GPT-4 現在可供 ChatGPT Plus 用户使用,Open AI 希望隨着時間的推移讓更多人可以使用它。
尊重隱私
Open AI 的大型語言模型是在廣泛的文本語料庫上訓練的,這些文本包括公開可用的、許可的內容以及由人工審閲生成的內容。
Open AI 不會使用數據來銷售服務、做廣告或建立人們的檔案——會通過使用數據使大語言模型對人們更有幫助。例如,ChatGPT 通過與人類之間進行的對話,以進一步培訓和改善產品。

雖然 Open AI 的一些訓練數據包括可在公共互聯網上獲得的個人信息。但只是希望大語言模型瞭解世界,而不是瞭解個人。因此,Open AI 努力在可行的情況下,從訓練數據集中刪除個人信息,微調模型以拒絕對私人個人信息的請求,並對個人提出的從數據庫中刪除其個人信息的請求做出回應。
提高生成數據準確性
大型語言模型根據之前的訓練模式預測下一個單詞、句子或長文。但在某些情況下,可能會出現數據不準確的情況。
提高生成數據的準確性,是 OpenAI 和許多其他 AI 開發人員的重點正在取得進展。通過用户對被標記為不正確的主要數據源的 ChatGPT 輸出的反饋,GPT-4 產生真實數據的性能比 GPT-3.5 高了 40%。
持續的研究和參與
OpenAI 認為,解決 AI 安全問題的實際方法是投入更多時間和資源來研究有效的緩解和對齊技術,並測試它們在現實世界中的濫用情況。
雖然 OpenAI 等了 6 個多月才部署 GPT-4 以更好地瞭解其功能、優勢和風險,但有時可能需要比這更長的時間來提高 AI 系統的安全性。
因此,政策制定者和 AI 供應商需要確保 AI 的開發和部署在全球範圍內得到有效管理,這樣就沒有人會為了取得成功而偷工減料。這是一項艱鉅的挑戰,需要技術和制度創新,但 OpenAI 會全力以赴做出最大努力去改善。
本文作者: AIGC 開放社區 ,來源:AIGC 開放社區,原文標題:《重磅!Open AI 發佈 ChatGPT 安全方法》
