
Meta, Copilot Flunk AI Privacy 101 — Big Tech Is Playing Chicken With Your Privacy

生成性人工智能和大型語言模型的興起增加了未經授權的數據收集和隱私泄露的風險。Incogni 的一份報告將 Mistral AI 的 Le Chat 評為侵入性最小的平台,而 Meta AI、Alphabet 的 Gemini 和 Microsoft 的 Copilot 則是數據收集最為激進的平台。建議用户研究隱私政策並利用控制措施來降低風險,因為不同平台的隱私實踐差異顯著
隨着生成性人工智能和大型語言模型(LLMs)逐漸融入日常工具和服務,未經授權的數據收集和隱私泄露的風險急劇上升。以下是一些侵入性較小的人工智能平台,以及一些數據收集最為激進的平台。
需要了解的事項: 根據 Incogni 最近的一份報告,Mistral AI 的 Le Chat 在數據隱私方面被評為侵入性最小的人工智能平台,限制了數據收集,並在大多數標準上表現良好。
ChatGPT(OpenAI)排名第二,緊隨其後的是 Grok(xAI),這兩個生成性人工智能平台都提供了相對清晰的隱私政策,並允許用户選擇不將其數據用於模型訓練。
在另一端,Meta Platforms, Inc. 的 META Meta AI、Alphabet, Inc. 的 GOOGGOOGL Gemini 以及 Microsoft, Inc. 的 Copilot 被發現是數據收集最為激進的平台,並且在其做法上缺乏透明度。
DeepSeek 的表現也很差,特別是在選擇退出選項和政策清晰度方面。
Anthropic 和 Meta 還披露與研究合作伙伴共享數據,這可能引發關於數據控制的擔憂,一旦提示離開平台。
移動應用的數據收集實踐也受到審查。Le Chat、Pi AI 和 ChatGPT 在移動端的隱私風險最低。Meta AI 的移動應用則是最為激進的,收集了用户名、電子郵件和電話號碼。
Gemini 和 Meta AI 收集用户的確切位置,而 Pi AI、Gemini 和 DeepSeek 則收集電話號碼。Grok 分享照片和應用交互數據,而 Anthropic 的 Claude 分享應用使用情況和電子郵件地址。
用户需謹慎: 總體而言,生成性人工智能平台的隱私風險差異很大。
表現最佳的平台提供了清晰的隱私政策、選擇退出控制和最小的數據收集,而表現最差的平台則缺乏透明度,廣泛共享用户數據而沒有明確的理由。
用户應研究生成性人工智能平台的隱私政策,並理解和使用隱私控制,以限制安全風險並維護個人數據的控制權。
- UnitedHealth 因 1190 億美元的股價暴跌再次遭到訴訟
圖片來源:Shutterstock
