
Salesforce's B2B AI Strategy: Security and Reliability are Paramount

AMD 調查顯示,在全球 5000 名受訪的 IT 決策者中,有一半以上由於擔心數據安全,暫不採用人工智能系統。
B 端客户應用生成式 AI 服務過程裏,最大的痛點是什麼?Salesforce 相信他們已經找到了:安全問題。
當地時間週二, 在 Salesforce 年度客户大會 Dreamforce 上,公司官宣兩大 AI 重磅更新:1)更加安全可靠的聊天機器人 Einstein Copilot;2)底層安全架構 Einstein Trust Layer(愛因斯坦信任層),能夠阻止 LLM 開發商利用客户數據訓練 AI。
公司 CEO Marc Benioff 在開場的演講中直接痛批市場上所有 AI 聊天機器人:
“這些系統很好,但並不出色。它們會給出有誤的答案。你可以稱之為幻覺(Hallucination),但我稱之為謊言。這些 LLM 是非常有説服力的騙子。”
他還表示,對 AI 開發者使用企業數據來訓練模型的擔憂,也讓許多 B 端客户不願意使用 AI。
他補充説:
“很多首席信息官説'我還沒準備好把我的數據交給這些 LLM 來讓他們的系統變得更智能。”
他的擔心不無道理。芯片製造商 AMD 8 月份發佈的研究表明,在全球 5000 名受訪的 IT 決策者中,有一半以上表示,由於擔心數據安全,他們的企業還沒有準備好採用人工智能系統。三星是眾多禁止員工使用 ChatGPT 等聊天機器人的公司之一,因為該公司擔心敏感信息可能會被用於訓練大模型。
通過 “信任層”,客户可以安全地使用大模型,而不必擔心信息泄露的風險。只要通過 Salesforce 平台上接入大模型(如 OpenAI 的 GPT-4),客户傳輸的信息就能始終保密,AI 開發人員無法保留這些數據,也不能將這些數據用於訓練。
Marc Benioff 表示:
“我們不看你的數據,你的數據不是我們的產品。我們是來讓你變得更好、更有生產力、更成功的。”
Einstein Copilot 也和其他 AI 聊天機器人不一樣。Salesforce 強調,相比其他產品,Einstein Copilot 能夠顯著減少胡編亂造現象出現的頻率。
不過,值得指出的是,目前還沒有已知的方法可以完全消除大模型的幻覺問題。
Einstein Copilot 目前正處於測試階段。Salesforce 沒有提供預計的發佈日期。公司稱,“信任層” 將於 10 月在 Salesforce AI 平台上全面推出。
