2025 年,一项针对企业的调查发现,约 40% 的组织已经遭遇过 AI 相关的隐私事件。与此同时,"影子 AI"(未经批准擅自使用 AI 工具)的比例高达 30%-40%。这意味着,在很多公司里,员工正在用 AI 处理敏感信息,而 IT 部门根本不知道。
这是一个正在爆发的安全问题。
当你问 AI 一个问题,数据去了哪
当你向 ChatGPT、Claude 或任何 AI 助手提问时,你的内容会发送到该公司的服务器。这些数据去了哪里、会被如何使用,每个平台的处理方式不同,但大致分为几类:
训练数据:部分平台会将你的对话内容用于未来模型的训练。ChatGPT 曾在 2023 年初因默认开启训练数据收集而被广泛批评。2025 年,Stanford HAI 的研究进一步发现,主要 AI 公司普遍存在长时间保留用户数据、缺乏透明度的问题,甚至在用户不知情的情况下用儿童的数据训练模型。
第三方共享:部分 AI 服务商可能会与广告商、数据经纪人或其他第三方共享信息(尽管具体政策各有不同)。
日志留存:即使选择退出模型训练,对话内容通常仍会在服务器上留存一段时间,用于安全监控、调试或合规用途。
真实案例:代价不仅仅是数据泄露
三星事件(2023):2023 年 3 月,三星半导体部门的工程师在三次单独的情况下,将公司敏感数据输入 ChatGPT,包括源代码和内部会议记录。第三位工程师甚至先用 AI 工具将会议录音转为文字,再粘贴给 ChatGPT 进行整理。结果:机密信息被上传到外部服务器。三星随即限制每人每次输入上限为 1024 字节,并展开内部调查。
Meta AI 事件(2024):2024 年 6 月,用户发现 Meta AI 将"私人"对话意外共享给了其他用户。这一事件暴露了一个根本性问题:在缺乏完善法规的情况下,用户几乎没有办法保护自己免受数据收集和隐私侵犯。
意大利罚款(2023):意大利数据保护机构 Garante 以违反 GDPR 为由,对 OpenAI 处以高额罚款,并要求其在六个月内开展公众意识宣传活动,解释公司如何收集个人数据以及用户如何行使拒绝训练数据的权利。
你的问题可能会进训练集——而且删不掉
这是最容易被忽略的一点:一旦你的数据被用于模型训练,它就几乎不可能被"删除"了。
模型训练不是简单的存档,而是将信息编码进模型的权重里。你可以要求平台不再用你的数据做未来训练,但已经训练进去的那部分,没有任何技术手段可以彻底抹除。这意味着:你今天随口问的一句"帮我写一封给客户的邮件",可能永远留存在某个模型的"记忆"里。
企业面临的特殊风险
对于企业来说,问题更严重。2025 年,32% 的数据泄露是 AI 驱动的,这意味着攻击者正在利用 AI 工具发起更精准的攻击。同时,大多数企业没有针对员工使用 AI 的明确政策——近一半的 HR 负责人表示他们还在"制定指南"阶段,而员工已经天天在用了。
更棘手的是"影子 AI":员工绕过 IT 审批,直接使用各种 AI 工具处理客户数据、财务信息、甚至代码——这些工具可能根本不在企业的合规范围内。
怎么保护自己
个人层面:
- 关闭训练数据收集:大多数主流 AI 工具都提供了关闭训练的选项。ChatGPT 在"数据控制"里关掉"Improve the model for everyone";Claude 在隐私设置里禁用模型训练。Meta AI 目前不提供退出选项——谨慎使用。
- 不要输入敏感信息:密码、私人照片、医疗记录、财务细节、公司内部代码——这些永远不要粘贴进 AI 对话框。
- 使用企业授权工具:如果你是企业用户,优先使用公司统一采购的工具(它们通常有数据处理协议),而不是个人账号。
企业层面:
- 制定清晰的 AI 使用政策,明确哪些数据可以、哪些绝对不可以输入 AI
- 对员工进行安全意识培训(尤其是工程师——他们最容易因为方便而踩雷)
- 建立 AI 工具清单,了解谁在用什么,处理什么数据
- 考虑使用数据脱敏或本地化部署方案处理高度敏感信息
隐私和便利之间,没有完美答案
用 AI 换来了效率,但效率是有代价的。你交的每一份数据,都是在用隐私换便利。问题不是"要不要用 AI",而是"用 AI 时,谁在看着你的数据"。
作为用户,你能做的是知情同意、明智选择。作为企业,需要尽快建立治理框架,而不是等问题发生了再灭火。
隐私不是小事。它是所有 AI 应用的底座。