12月29日最新消息,尽管nvidia当前在ai训练市场占据绝对主导地位,但面对爆发式增长的实时推理应用场景,公司正秘密推进一项可能重塑整个ai硬件生态的颠覆性技术方案。
据AGF独家披露,NVIDIA拟于2028年发布的Feynman(费曼)架构GPU,将首次深度集成Groq公司的LPU(语言处理单元),从而在AI推理效率上实现跨越式提升。
该架构将取代现有的Rubin架构,并采用台积电最前沿的A16(1.6纳米)制程工艺。为突破传统半导体物理极限,NVIDIA将启用台积电SoIC混合键合技术,把专为推理任务优化的LPU模块直接垂直堆叠于GPU主芯片之上。

这一结构设计灵感部分源自AMD的3D V-Cache技术,但NVIDIA所堆叠的并非通用缓存,而是高度定制化的LPU推理加速单元。
其核心设计理念直指SRAM微缩瓶颈——在1.6nm这一极限制程节点下,若将海量SRAM直接集成于主芯片,不仅制造成本剧增,还会严重挤占宝贵芯片面积。
借助先进堆叠工艺,NVIDIA可将计算核心保留在主芯片层,而将高面积消耗的SRAM资源独立成片,以堆叠方式部署于上层芯片中。
值得一提的是,台积电A16制程的关键优势之一在于支持背面供电(BSP)技术,该技术可释放芯片正面布线空间,专用于高密度垂直互连,从而保障堆叠LPU与GPU之间实现超低功耗、超高带宽的数据交互。
叠加LPU所具备的“确定性”执行特性,新一代NVIDIA GPU在应对语音交互、实时语义翻译等毫秒级响应需求时,推理延迟有望迎来数量级下降。
然而,该方案也面临两大关键工程挑战:散热管理与CUDA生态兼容性。
在本就高功耗、高密度的GPU芯片上再叠加一层功能芯片,如何有效导出热量、防止局部过热导致系统宕机,已成为研发团队首要攻克的技术难关。
此外,LPU依赖严格的执行时序与精准内存调度,强调“确定性”;而CUDA生态长期建立在抽象化硬件接口之上,二者底层逻辑存在天然张力。实现无缝协同,亟需从驱动层到编译器的全栈级深度优化。









