吵了几个月,Linus终于拍板!Linux正式为AI代码“立法”:允许用AI,但锅必须人背
整理 | 郑丽媛出品 | CSDNIDCSDNnews如果说过去两年开源社区对 AI 的态度还停留在“争论要不要用”那么现在这个问题已经被现实彻底改写成了——如何在不可避免使用 AI 的前提下把风险降到最低就在最近围绕 AI 生成代码的长期争议终于在 Linux 内核社区落下帷幕Linus Torvalds 以及 Linux 内核维护者们正式制定了一套项目级别的 AI 代码使用规范。简单来说就是一句话AI 可以用但你必须对它的一切负责。Linus 的态度AI 只是工具“禁止 AI”毫无意义过去几个月Linux 内核社区其实一直处在一种微妙的拉扯中● 一边是越来越普遍的 AI 编程工具比如 GitHub 推出的 Copilot以及 Claude 等大模型● 另一边则是维护者对代码质量、法律风险以及社区文化的深层焦虑。争论的爆发点出现在今年年初。当时来自 Intel 和 Oracle 的内核开发者围绕“是否应该严格限制 AI 代码”发生公开分歧讨论一度升级为社区层面的激烈对抗。有人主张强监管甚至封禁有人则认为这不过是技术演进中的正常阶段。最终Linus Torvalds 亲自下场用一句话给这场争论画上句号“讨论 AI 垃圾代码这件事其实毫无意义这完全就是在犯蠢。”在他看来AI 本质上和编辑器、编译器一样只是工具真正需要监管的是“人”而不是他们用什么工具。因此与其试图“禁止 AI”不如把责任牢牢绑定到提交代码的人身上。不管用不用 AI反正谁提交的谁负责此次新政策最核心的变化看起来只是一个标签的调整AI 生成的代码不能使用 Signed-off-by 标签而必须添加 Assisted-by 标签以明确标注 AI 参与。简单介绍一下在 Linux 的开发流程中Signed-off-by 一直是一个极具法律意义的标签它意味着提交者承诺代码来源合法且有权提交而现在这个标签被明确禁止用于 AI 生成内容取而代之的是一个新的标签——Assisted-by。这个调整的目的其实非常清晰● AI 参与必须被明确标注透明性● 最终责任仍然完全归属于人类开发者可追责换句话说无论代码是你写的还是 AI 帮你生成的只要是你提交的出了 Bug、性能问题甚至安全漏洞——责任都在你。Linux 社区并没有试图去定义 AI 的“可信度”而是直接绕过这个难题把问题重新拉回到最传统的工程原则上谁提交谁负责。为什么开源社区对 AI 如此焦虑如果只看表面很容易把这场争论理解为“老派工程师 vs 现代新工具”的冲突。但实际上这场争议并不是“技术问题”而是法律问题。开源世界长期依赖一个关键机制DCODeveloper Certificate of Origin也就是开发者在提交代码时需要声明这段代码是我有权提交的。但问题来了——像 Copilot、ChatGPT 这样的 AI是基于海量开源代码训练的其中包括 GPLGNU General Public License等强限制许可证以及各种版权不明的数据。这就会导致一个尴尬局面开发者其实无法完全证明 AI 生成代码的“来源合法性”。这一点Red Hat 在此前的分析中曾明确警告使用 AI 生成代码可能会在无意中导致开源许可证违规甚至可能从根本上冲击 DCO 体系。除了法律风险还有一个更现实的问题AI 代码太多了而且质量参差不齐。开源社区甚至给它起了个名字叫 “AI slop”AI 垃圾代码。这些代码往往看起来结构完整、语法正确但在逻辑上充满漏洞甚至夹杂大量“幻觉”。在现实中也已经发生了不少真实案例● cURL 的维护者因被大量 AI 生成的错误报告淹没不得不关闭漏洞奖励机制● 白板工具 tldraw 开始自动关闭外部 PR以减少无效提交● Node.js、OCaml 等项目中甚至出现过上万行的 AI 生成补丁引发维护者争议。最后其实社区真正无法接受的并非 AI 本身而是“隐瞒使用 AI ”的行为。有一个典型事件发生在 Linux 内核内部NVIDIA 工程师、内核维护者 Sasha Levin 曾提交了一段完全由大模型生成的补丁但没有任何 AI 标注。这段代码虽然能够运行却引入了性能回退问题并在评审阶段误导了其他维护者。事后连 Linus Torvalds 也承认因为没有标注 AI这段代码没有被充分审查所以问题的本质其实很清晰开源社区不怕你用 AI但非常反感你“装作是自己写的”。不只是 Linux整个开源圈都在“震荡”类似的冲突并不只发生在 Linux在经典游戏 Doom 的 Mod 社区中GZDoom 项目也曾因为 AI 使用问题陷入分裂。当时项目负责人 Christoph Oelckers 被发现使用 AI 生成代码却未披露在面对社区质疑时他直接“摆烂”“不满意可以 fork。”结果社区真的这么做了——一个名为 UZDoom 的新分支迅速出现大量核心开发者迁移过去原项目元气大伤。事实证明在开源世界透明性一旦被打破分裂几乎是不可避免的结果。对比来看Linux 内核社区给出的最终答案其实非常“工程师思维”代码好不好比是不是 AI 写的更重要。你可以用 AI 生成代码但如果代码有问题、如果它是“AI 垃圾”、如果它把内核搞崩了那么——点下“提交”的那个人要亲自向 Linus 负责。在 Linux 的开源世界里这大概已经是最强的约束机制了。参考链接https://www.tomshardware.com/software/linux/linux-lays-down-the-law-on-ai-generated-code-yes-to-copilot-no-to-ai-slop-and-humans-take-the-fall-for-mistakes-after-months-of-fierce-debate-torvalds-and-maintainers-come-to-an-agreement推荐阅读弃用Windows、封杀Teams8万人紧急迁移法国政府宣布“去微软化”全面转向Linux找技术、链资源、学出海7城论坛智能硬件的“全能加速包”来了机器人部署从数周压缩到半小时成功率99.999%智元这套零代码平台到底做了什么【活动分享】48 小时与 50 位大厂技术决策者共探 AI 落地真路径。由 CSDN奇点智能研究院联合举办的「全球机器学习技术大会」正式升级为「奇点智能技术大会」。2026 奇点智能技术大会将于 4 月 17-18 日在上海环球港凯悦酒店正式召开大会聚焦大模型技术演进、智能体系统工程、OpenClaw 生态实践及 AI 行业落地等十二大专题板块特邀来自BAT、京东、微软、小红书、美团等头部企业的 50 位技术决策者分享实战案例。旨在帮助技术管理者与一线 AI 落地人员规避选型风险、降低试错成本、获取可复用的工程方法论真正实现 AI 技术的规模化落地与商业价值转化。这不仅是一场技术的盛宴更是决策者把握 2026 AI 拐点的战略机会。