TL;DR:
GitHub Copilot 宣布从 2026 年起默认开启“投喂模式”,拿个人用户的代码去训练自家 AI。虽然官方自称是为了让模型更“懂”程序员,但这种“先斩后奏”的强行授权,直接让开发者社区炸开了锅:这哪是助手,这分明是住在 IDE 里的“代码吸尘器”!
程序员们可能还没从修不完的 Bug 中缓过来,GitHub 就准备给大伙儿送上一份“惊喜大礼包”。
近日,GitHub 官方发布公告,宣布从 2026 年 4 月 24 日起,将调整 Copilot 用户交互数据的使用规则。翻译成大白话就是:从那天开始,你写出的每一行精妙逻辑(或者是满屏的 Bug),都将默认变成 Copilot 进化成“代码之神”的免费养料。[^1]
技术大揭秘:AI 的“免费午餐”里都有啥?
这波政策更新可谓是“精准收割”。受影响的主要是 Copilot Free(免费版)、Pro(专业版)和 Pro+(高级专业版) 的个人用户。至于那些交了“保护费”更多的 Copilot Business 和 Enterprise 用户,GitHub 则是非常识趣地表示:大佬请放心,您的代码我们不乱碰。
那么,如果你是一个个人开发者,GitHub 到底会从你这里“顺”走什么?根据官方清单,其收集范围包括但不限于:
- 你接受或修改后的代码输出(看看你把 AI 写的屎山改成啥样了);
- 发送给模型的输入信息,包括上下文、注释和文档;
- 文件名、存储库路径甚至你的开发导航模式;
- 还有你对建议的每一个“点赞”或“点踩”。
GitHub 解释说,这是为了让模型更懂真实开发场景。毕竟,去年他们拿微软内部员工的数据试了一下,效果拔群,建议采纳率直线上升。[^1] 潜台词就是:为了让 AI 变聪明,只能委屈各位当一下“数字燃料”了。
行业“地震”:是贴心助手还是电子监工?
政策一出,开发者社区的反馈直接让 GitHub 体验了一把什么叫“民怨沸腾”。在相关的讨论区里,用户打出的 👎 数量几乎是 🚀 的 20 多倍。
最让大家破防的不是收集数据,而是 “默认开启”(Opt-out)的傲慢姿态。很多开发者质疑,这种“除非你主动拒绝,否则我就默认你同意”的行为,简直是在法律边缘试探。
“真正做到‘自豪地去征求用户同意’的方式,应当是要求用户主动选择加入,而不是声称在未来某个时间强行开启。” —— 某位在 GitHub 社区获赞最高的开发者如是说。[^2]
更有公司老板开始脊背发凉:万一我公司的某个员工忘了关这个选项,那我们价值百万的商业机密和源代码,岂不是通过 Copilot 的训练过程,以某种方式“分享”给了全世界的竞争对手?
这种担忧并非空穴来风。早前就有开发者发现,Copilot 竟然能“复读”出受版权保护的代码大片段。[^3] 此前,微软和 GitHub 就曾因为涉嫌“白嫖”开源代码用于训练而面临法律诉讼,被指控侵犯了开源许可协议中的署名权。[^4][^5]
未来预测:信任比代码更贵
虽然 GitHub 强调,用户可以在隐私设置里“一键退出”,且已经关闭数据收集的用户不会受到影响。但这种信任赤字一旦产生,很难靠一两个开关补回来。
目前,已经有一批程序员开始在社区里组队寻找 GitHub 的替代方案,甚至有人愤而销号。[^2] 毕竟,对于视代码如生命的开发者来说,我的代码可以开源,但不能被你“强行征收”去变成收费产品的利润。
AI 代码助手确实大幅提升了生产力,但如果这种进步是建立在模糊的数据边界和透支用户信任的基础上,那么这场“技术红利”的代价,或许比我们想象的要沉重。
那么问题来了,当 2026 年的钟声响起,你会选择为了方便留下来“喂”AI,还是守住最后一点代码隐私,反手点一个退出?