llvm 近期发布了一份关于 ai 工具使用规范的征求意见稿(rfc),明确允许贡献者在开发过程中借助 ai 生成内容,但前提是必须确保“人在环路中”——即人工深度参与整个流程。贡献者需具备扎实的技术理解能力,以便在代码审查阶段准确回应评审人员提出的各类技术问题。
若 AI 生成的内容体量较大,贡献者还需主动披露相关信息,保持过程透明。目前,该政策草案已以 Pull Request 形式提交至 GitHub,目标是将其正式纳入 LLVM 官方文档体系。
与此同时,谷歌编译器工程师 Pranav Kant 提出了一项新构想:打造一款面向 Bazel 构建系统的 AI 辅助修复机器人。该工具将自动识别并生成修复补丁,以解决 LLVM 在 Bazel 构建环境下出现的各类兼容性与构建失败问题,并通过拉取请求(PR)形式提交修复方案。
作为 Bazel 的核心推动者与重度使用者,谷歌希望借此降低 LLVM 对 Bazel 构建支持的维护门槛。由于 LLVM 社区本身并不强制要求贡献者适配 Bazel 构建流程,因此这一自动化辅助机制被定位为实验性项目,旨在提升跨构建系统协作效率。

不过,该提案最初设想由 AI 机器人直接创建 PR,随即引发社区讨论。部分开发者指出,应设置前置人工评估环节——即所有 AI 生成的修改须经人工初步审核确认后,再进入正式 PR 流程。此举可避免将未经筛选的变更直接抛给 LLVM 维护者,减轻其审查负担,也更符合 LLVM 当前强调“人工主导”的 AI 使用原则。
值得一提的是,类似探讨也在 GNU 工具链社区展开。GCC 开发团队正着手研究并制定适用于 GCC 项目的 AI 与大语言模型(LLM)使用策略,以应对日益增长的智能化开发需求。
详情参见:https://www.php.cn/link/ffbc391008d6481ccf89703e9619a98c
源码地址:点击下载










