本月初,nvidia 在推出 cuda 13.1 的同时正式发布了 cuda tile 编程模型,并将其称为“自 cuda 平台问世二十年以来最宏大、最系统的一次升级”。目前,cuda tile 的中间表示(intermediate representation,ir)已在 apache 2.0 开源协议下全面开放。

CUDA Tile IR 构建于 LLVM 项目中的 MLIR(Multi-Level Intermediate Representation)基础之上。这一设计选择意义深远,不仅强化了其与现有编译器生态的兼容性,也为在非 NVIDIA 硬件平台上支持 CUDA Tile IR 奠定了技术基础。
事实上,MLIR 已被多家厂商广泛采用:AMD 在其 AI 与高性能计算栈中不同程度集成了 MLIR;谷歌主导的 IREE 项目正依托 MLIR 实现跨厂商硬件的高效部署;英特尔亦为其 GPU 和 AI 加速器定制开发了专属 MLIR 方言;此外,ONNX-MLIR、MLIR-AIE、Torch-MLIR 等多样化 IR 框架也持续拓展着 MLIR 的应用边界。CUDA Tile IR 原生基于 MLIR,天然具备良好的可移植性与可扩展性,有望显著降低跨平台适配门槛,加速其向其他 GPU 或异构加速器生态的延伸。至少从开源角度看,这一举措将有力支撑 ZLUDA 等开源 CUDA 兼容层项目的演进与完善。
CUDA Tile 的完整实现包含 Tile MLIR 方言定义、Python API 接口绑定、字节码序列化格式以及配套的一致性验证测试套件。
CUDA Tile IR 是一个以 MLIR 为底层架构的 CUDA 内核优化中间表示及配套编译器基础设施,核心聚焦于分块(tiling)计算范式,并深度适配 NVIDIA 张量核心(Tensor Cores)的硬件特性。该项目构建了一套完整的工具链与抽象体系,用于建模、表达和优化面向 NVIDIA GPU 的分块计算任务,通过封装典型分块模式、内存层级调度策略及 GPU 特定优化机制,大幅简化高性能 CUDA 内核的开发流程与调优复杂度。
源码地址:点击下载










