当你在提交代码时勾选了"AI生成"选项,却发现线上服务崩溃了——这个Bug到底该算谁的?Linux内核团队刚刚给出了答案。
✦ 允许用,但责任归你
经过数月内部讨论,Linux内核维护团队于近日正式发布了AI生成代码的使用指南。核心结论只有一条:允许用AI编程工具(如GitHub Copilot),但代码提交者必须为所有Bug和安全漏洞承担全部责任。
" 彻底封禁AI工具毫无意义——AI只是一种工具。真正的问题在于,谁为最终提交的代码负责。"——Linus Torvalds
这一立场与部分开源社区的强硬抵制形成鲜明对比。NetBSD和Gentoo明确禁止AI生成代码,认为大模型训练数据来源不明,生成的内容存在"版权污染"风险。cURL项目甚至因收到大量低质量AI提交,不得不关闭了漏洞赏金项目。
✦ 透明性要求:必须披露是否由AI生成
新规还要求开发者明确标注代码是否由AI生成。这一透明性要求的背景,是开发者证书原始签名(DCO)引发的争议——开发者需保证提交代码的所有权,但AI模型训练时使用的代码往往遵循GPL等许可证,导致开发者难以完全保证AI生成代码的合法性。
允许
AI工具使用
开发者
承担全部责任
必须标注
AI来源披露
✦ 开源社区的AI分裂
此次Linux内核的表态,实际上是在两大阵营之间选择了中间路线:一派是NetBSD、Gentoo式的彻底封禁;另一派是无限制开放。而Linux选择了一条更务实的路——工具可以敞开用,但后果自负。
这种思路的底层逻辑很直接:提交劣质代码的人,往往本来就不遵守规则。与其限制工具,不如直接锁定责任人。
✦ 行业信号:AI编程进入"责任时代"
Linux内核的新规,不仅仅是一个开源项目的内部决策。它释放了一个重要信号:当AI编程工具从极客玩具变成日常生产力,整个行业正在从"能不能用"的讨论,转向"出了问题谁负责"的制度建设。
对于所有使用AI辅助编程的开发者而言,这意味着:享受效率提升的同时,也必须为代码的每一个Bug做好买单的准备。
AI是工具,代码是责任。在这个AI编程时代,"署名"比以往任何时候都更重要。
看到这里,如果觉得有收获
转 发
收 藏
👤 AI思想录
专注AI与科技前沿,让复杂技术通俗易懂。每晚8点,记得来看我。
📧 商务合作:jingrong_2025