当前位置: 首页 > news >正文

你的数据正在喂养 AI:从 Atlassian 公告,看科技平台的数据训练默认政策

TL;DR:Atlassian 宣布默认使用用户数据训练 AI,这不是意外,而是行业惯例。本文梳理海外和中国主流平台的数据训练政策,拆解背后的三个共同规律。

一、Atlassian 的公告

2026 年 8 月 17 日,Atlassian 的一项隐私政策更新悄悄生效。

对于数百万使用 Jira 和 Confluence 的团队而言,这意味着:你在 Confluence 里写的文档、Jira 里记录的需求和 Bug 描述,默认情况下可以被用于训练 Atlassian 的 AI 模型。

公告关键条款分两层。第一层是元数据,免费和标准版用户无法退出;第二层是应用内容(Confluence 正文、Jira 描述和评论),默认开启,可以关闭,但完全退出需要升级到企业版。

Atlassian 的措辞相当克制——“去标识化处理”“用于改进 AI 功能”“保障隐私安全”。这套话术你可能在其他地方见过,因为几乎每一家做同样事情的公司都在用同样的句式。

官方 FAQ:https://www.atlassian.com/trust/ai/data-contribution/faqs

二、这不是孤例,而是行业惯例

Atlassian 公告引发了一些讨论,但坦白说,它只是在做一件大多数同行早就在做的事。

以下是海外主流平台的现状:

平台 默认行为 退出方式
ChatGPT(免费/Plus) 默认开启 App 内设置关闭
GitHub Copilot(免费) 默认开启 设置关闭
LinkedIn 默认开启 可退出,但已收集数据不撤回
Slack 默认开启 邮件申请退出
Atlassian 默认开启 企业版才能完全退出
X/Twitter 默认开启 隐私设置关闭
Zoom 曾默认开启 2023 年因舆论压力撤回

几个值得单独说的细节:

ChatGPT 的策略在文档上算透明——官方帮助页明确写着“ChatGPT 通过对话训练,除非你退出”。但有一个陷阱:即使你开启了退出,只要你对某条回复点了赞或踩,该完整对话仍可能被用于训练。

GitHub Copilot 自 2026 年 4 月起,将免费和 Pro 用户的交互数据默认用于训练。企业版默认关闭——和 Atlassian 如出一辙,付费保护数据,免费贡献数据。

Zoom 是目前唯一完全撤回的案例。2023 年 8 月政策更新后,用户发现条款允许用视频内容训练 AI,舆论强烈反弹,Zoom 数日内道歉并完全撤回。这个案例在 2023 年是标志性事件,但此后再也没有重演过。

三、中国平台的镜像现象

同样的逻辑,在中国市场同步上演。

平台 默认行为 退出方式
豆包(字节跳动) 默认开启 App 内设置关闭
DeepSeek 默认开启 App 内设置关闭
通义千问(阿里) 默认开启 联系客服申请
元宝(腾讯) 默认关闭 无需退出
WPS 曾默认开启 2023 年因舆论压力撤回

豆包的隐私政策(2026 年 3 月生效)在“模型训练”章节直接写明:“内容数据(输入 + 回复)经去标识化后可用于模型训练。”退出路径是:设置 → 隐私与权限 → 帮助模型改进效果。表述算得上清晰。

DeepSeek 有一个容易被忽视的细节:用户协议允许将输出内容用于“训练其他模型,包括模型蒸馏”。这意味着你和 DeepSeek 的对话,不只可能被用来训练 DeepSeek 自身,还可能用于蒸馏出其他模型。

通义千问是所有已查平台中退出体验最差的:没有 App 内开关,必须手动联系客服申请。隐私政策的措辞是“如不希望用于模型优化,请参照本政策第九条联系我们”——把退出的门槛设计得足够高,大多数用户不会真的去走这条路。

元宝是个异类。2025 年 3 月,腾讯原始协议中有“永久、不可撤销、可转让”的内容授权条款,引发舆论反弹后 5 天内连改三次,最终改为默认关闭、用户主动开启才生效。在中国主流大模型产品里,元宝目前是唯一默认不收集的。

WPS 与 Zoom 的剧本几乎一致:2023 年 11 月政策加入用户文档用于 AI 训练条款,两天内被迫道歉撤回。时间节点相近,结局相同——都发生在公众对 AI 隐私最敏感的 2023 年。

四、模式拆解:三个共同规律

梳理完这些案例,可以归纳出三个几乎跨平台通用的规律。

规律一:默认开启,退出路径设计得刁钻

没有一家平台会在注册时弹窗询问“是否同意将你的数据用于训练”。统一的做法是:默认开启,在隐私政策深处埋一个退出入口,路径越长越好。通义千问把退出门槛设计成“联系客服”,是这个规律的极端案例。Atlassian 把完全退出的权利锁在企业版付费墙后面,是另一种变体。

规律二:免费用户最脆弱,付费企业版才有保护

这几乎是铁律。ChatGPT 免费/Plus 版默认开启,Enterprise 版默认关闭。GitHub Copilot 免费版默认开启,企业版默认关闭。Atlassian 标准版无法退出元数据收集,企业版可以完全退出。逻辑很清晰:免费用户用数据付费,付费用户用钱付费。

规律三:“去标识化”成了万能挡箭牌

翻遍所有平台的隐私政策,几乎每一家都用了同样的措辞:“在严格去标识化、无法重新识别特定个人的前提下……”这句话的问题在于:去标识化的标准由平台自己定义,执行情况无从外部核实,而去标识化后的数据在法律上往往不再被视为个人信息,监管约束大幅减弱。这句话既是承诺,也是免责。

五、用户态度的转变

2023 年是一个分水岭。

那一年,Zoom 因 AI 训练条款在数日内被迫撤回,WPS 在两天内道歉。公众对 AI 使用私人数据的反应是即时且强烈的。那个时期,“你的数据被用于训练 AI”还是一个足以引发大规模讨论的新闻。

2025 到 2026 年,同样的操作几乎不再引发反弹。

LinkedIn 默认开启,用户沉默。GitHub Copilot 更新政策,开发者社区短暂讨论后归于平静。Atlassian 公告生效,大多数团队甚至不知道这件事发生过。

这种转变背后有几个相互叠加的原因。

第一是疲劳效应。当每隔几个月就有一家平台更新数据政策,用户的警觉阈值在持续上升。反复面对同样的新闻,愤怒会钝化。

第二是感知价值的变化。2023 年 AI 功能对普通用户还是新鲜事物,隐私代价显得不对等。到了 2026 年,AI 补全、AI 总结、AI 搜索已经深度嵌入日常工作流,用户在隐性地做一笔交换:我的数据换你的 AI 能力。

第三是迁移成本极高。Jira 和 Confluence 深度绑定了团队的工作流,换掉的成本远超隐私政策带来的不适。这让平台在调整政策时拥有相当大的空间。

第四是监管滞后。无论是 GDPR 还是中国的《生成式人工智能服务管理暂行办法》,对“去标识化数据用于模型训练”的具体边界都尚未形成清晰的执法标准。监管的空白给了平台足够的时间窗口。

用户不是变得不在意隐私了,而是在没有更好选择的情况下,选择了接受。

六、开发者和企业该怎么办

知道这件事之后,能做什么?

个人用户:主动退出

前文提到的各平台退出路径,值得花五分钟逐一检查一遍。默认开启的设计就是赌你不会去找那个开关。

企业用户:评估合规风险

如果你的团队在 Jira 或 Confluence 里记录了客户数据、商业机密、未发布的产品规划,需要认真评估 Atlassian 新政策的合规影响。标准版无法完全退出元数据收集,这在某些行业(金融、医疗、政府)可能触碰监管红线。

对于 ChatGPT、Copilot 等开发工具,建议在团队层面统一配置企业版并确认默认策略,而不是依赖每个员工自己去找设置。

更根本的问题

退出开关能做的事是有限的。平台对“去标识化”的定义不透明,执行情况无法核实,历史数据通常无法删除。

真正有效的保护是不输入不该输入的内容——不在消费级 AI 产品里粘贴客户合同、不在免费版 Copilot 里处理涉密代码、不在公有云 SaaS 里存放监管敏感数据。这不是对 AI 工具的否定,而是在享受便利的同时,对数据边界保持清醒。

http://www.jsqmd.com/news/724067/

相关文章:

  • 在 HTML 文件的 <script> 标签内或外部 JS 文件中设置断点。
  • 专业经验丰富的企业VI设计公司推荐,企业品牌形象升级靠谱合作首选 - 设计调研者
  • CUDA性能优化实战:从内存访问到并行计算的全面指南
  • 基于MCP协议构建YouTube数据连接器,赋能AI助手内容分析
  • MoS路由器架构设计与多模态交互优化解析
  • Python发票自动化处理实战:Invoice Forge解析、生成与集成指南
  • XHS-Downloader:你的小红书内容管理专家,轻松实现批量采集与智能归档
  • 5分钟搞定Switch手柄PC适配:BetterJoy终极指南
  • 研究型AI vs 工程型AI:两种截然不同的职业发展路径
  • Joy-Con Toolkit终极指南:免费开源工具彻底解决摇杆漂移问题
  • 广州专业包装设计公司靠谱推荐,本地品牌做包装设计合作优选 - 设计调研者
  • HoRain云--什么是域名?
  • MTKClient Live DVD V6刷机工具:系统优化与实战避坑指南
  • 2026性价比最高包装设计公司对比与推荐,中小品牌做包装不花冤枉钱! - 设计调研者
  • AI产品经理面试必问!3个Offer学长真实简历揭秘转行核心能力,小白也能轻松拿下Offer!
  • 全程完整复盘:Claude Code MCP 搭建所有错误点 + 出错原因 + 通用易错点(保姆级拆解)
  • 如何利用NVIDIA Profile Inspector深度优化游戏性能:终极指南
  • 终极指南:如何在不破坏系统的情况下迁移C盘大文件到其他分区
  • 当AI开始写代码,软件测试从业者如何保住饭碗并实现升维
  • 2026年标准件厂家有哪些,五金件/螺栓/螺丝/涂胶/非标螺丝/标准件/螺母/紧固件,标准件品牌联系方式 - 品牌推荐师
  • 如何快速解锁你的微信聊天记录:WechatDecrypt本地解密完整指南
  • 从部落知识到代码化手册:skene-cookbook如何重塑运维知识管理
  • 东三省单元门源头工厂排行:实地抽检核心维度对比 - 奔跑123
  • 7步快速掌握SketchUp STL插件:开启3D打印的完整解决方案
  • 选对差旅,降本合规:2026国内差旅公司综合实力排行解析+选型指南
  • ChatGPT平替方案:基于LM Z-Image构建私有化智能对话助手
  • 2026专业靠谱又不贵的包装设计公司推荐,中小企业做包装务实不踩坑指南 - 设计调研者
  • 微信数据提取工具的法律边界:为什么开源项目需要合规审查
  • 3分钟掌握DamaiHelper:告别演唱会陪跑,轻松抢到心仪门票
  • 当dev 分支与远端「双向跑偏」:`fatal: refusing to merge unrelated histories` 一次 `git pull` 失败的复盘