【导语:过去开源社区对是否使用 AI 存在争论,如今 Linux 内核社区围绕 AI 生成代码的争议落下帷幕,制定了 AI 代码使用规范,这一举措在开源圈引发震荡。】
过去两年,开源社区对 AI 的态度从“争论要不要用”转变为“如何降低使用风险”。最近,围绕 AI 生成代码的长期争议在 Linux 内核社区有了结果,Linus Torvalds 及内核维护者们制定了项目级别的 AI 代码使用规范,即 AI 可以用,但使用者必须对其负责。
过去几个月,Linux 内核社区处于拉扯状态,一边是普遍的 AI 编程工具,如 GitHub 的 Copilot 和 Claude 等大模型;另一边是维护者对代码质量、法律风险和社区文化的焦虑。争论爆发于今年年初,开发者对是否严格限制 AI 代码产生分歧。
开源世界依赖 DCO 机制,开发者需声明代码来源合法。但 AI 基于海量开源代码训练,包含强限制许可证和版权不明数据,开发者无法证明 AI 生成代码的合法性,可能导致开源许可证违规,冲击 DCO 体系。此外,AI 代码质量参差不齐,被称为“AI 垃圾代码”,已引发诸多问题,如 cURL 维护者关闭漏洞奖励机制、tldraw 关闭外部 PR 等。
新政策核心变化是标签调整,AI 生成代码不能用 Signed-off-by 标签,需添加 Assisted-by 标签,明确标注 AI 参与。这一调整目的是保证 AI 参与透明性,且最终责任归人类开发者。无论代码是否由 AI 生成,提交者都要对 Bug、性能问题和安全漏洞负责。
类似冲突不仅发生在 Linux,经典游戏 Doom 的 Mod 社区中,GZDoom 项目因负责人使用 AI 代码未披露而分裂。Linux 内核社区的答案体现“工程师思维”,更看重代码质量,使用者用 AI 生成代码,若代码有问题,提交者要向 Linus 负责,这是开源世界较强的约束机制。
编辑观点:Linux 内核社区的规范为开源社区使用 AI 代码提供了范例,平衡了技术应用与风险管控,有助于开源生态健康发展,但后续实施效果仍待观察。