拿我代码喂AI,还要我默认同意?GitHub Copilot 这波“强行白嫖”让开发者破防了

温故智新AIGC实验室

TL;DR:

GitHub Copilot 宣布从 2026 年起默认开启“投喂模式”,拿个人用户的代码去训练自家 AI。虽然官方自称是为了让模型更“懂”程序员,但这种“先斩后奏”的强行授权,直接让开发者社区炸开了锅:这哪是助手,这分明是住在 IDE 里的“代码吸尘器”!

程序员们可能还没从修不完的 Bug 中缓过来,GitHub 就准备给大伙儿送上一份“惊喜大礼包”。

近日,GitHub 官方发布公告,宣布从 2026 年 4 月 24 日起,将调整 Copilot 用户交互数据的使用规则。翻译成大白话就是:从那天开始,你写出的每一行精妙逻辑(或者是满屏的 Bug),都将默认变成 Copilot 进化成“代码之神”的免费养料。[^1]

技术大揭秘:AI 的“免费午餐”里都有啥?

这波政策更新可谓是“精准收割”。受影响的主要是 Copilot Free(免费版)、Pro(专业版)和 Pro+(高级专业版) 的个人用户。至于那些交了“保护费”更多的 Copilot Business 和 Enterprise 用户,GitHub 则是非常识趣地表示:大佬请放心,您的代码我们不乱碰。

那么,如果你是一个个人开发者,GitHub 到底会从你这里“顺”走什么?根据官方清单,其收集范围包括但不限于:

  • 你接受或修改后的代码输出(看看你把 AI 写的屎山改成啥样了);
  • 发送给模型的输入信息,包括上下文、注释和文档;
  • 文件名、存储库路径甚至你的开发导航模式
  • 还有你对建议的每一个“点赞”或“点踩”。

GitHub 解释说,这是为了让模型更懂真实开发场景。毕竟,去年他们拿微软内部员工的数据试了一下,效果拔群,建议采纳率直线上升。[^1] 潜台词就是:为了让 AI 变聪明,只能委屈各位当一下“数字燃料”了。

行业“地震”:是贴心助手还是电子监工?

政策一出,开发者社区的反馈直接让 GitHub 体验了一把什么叫“民怨沸腾”。在相关的讨论区里,用户打出的 👎 数量几乎是 🚀 的 20 多倍。

最让大家破防的不是收集数据,而是 “默认开启”(Opt-out)的傲慢姿态。很多开发者质疑,这种“除非你主动拒绝,否则我就默认你同意”的行为,简直是在法律边缘试探。

“真正做到‘自豪地去征求用户同意’的方式,应当是要求用户主动选择加入,而不是声称在未来某个时间强行开启。” —— 某位在 GitHub 社区获赞最高的开发者如是说。[^2]

更有公司老板开始脊背发凉:万一我公司的某个员工忘了关这个选项,那我们价值百万的商业机密和源代码,岂不是通过 Copilot 的训练过程,以某种方式“分享”给了全世界的竞争对手?

这种担忧并非空穴来风。早前就有开发者发现,Copilot 竟然能“复读”出受版权保护的代码大片段。[^3] 此前,微软和 GitHub 就曾因为涉嫌“白嫖”开源代码用于训练而面临法律诉讼,被指控侵犯了开源许可协议中的署名权。[^4][^5]

未来预测:信任比代码更贵

虽然 GitHub 强调,用户可以在隐私设置里“一键退出”,且已经关闭数据收集的用户不会受到影响。但这种信任赤字一旦产生,很难靠一两个开关补回来。

目前,已经有一批程序员开始在社区里组队寻找 GitHub 的替代方案,甚至有人愤而销号。[^2] 毕竟,对于视代码如生命的开发者来说,我的代码可以开源,但不能被你“强行征收”去变成收费产品的利润。

AI 代码助手确实大幅提升了生产力,但如果这种进步是建立在模糊的数据边界和透支用户信任的基础上,那么这场“技术红利”的代价,或许比我们想象的要沉重。

那么问题来了,当 2026 年的钟声响起,你会选择为了方便留下来“喂”AI,还是守住最后一点代码隐私,反手点一个退出?