1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

雪夜
发布: 2025-07-02 13:24:21
原创
430人浏览过

机器之心编辑部

熟悉开源社区的朋友对 vLLM 应该不会陌生。它是由加州大学伯克利分校团队打造的高性能、开源 LLM 推理和服务引擎,主要目标是提升大语言模型(LLM)的推理速度(吞吐量)和资源利用率(尤其是内存),并且兼容 Hugging Face 等主流模型库。

简而言之,vLLM 可以让 GPT、Mistral、LLaMA 等主流模型系列运行得更快且占用更少资源,而实现这一效果的核心技术就是其创新性的注意力机制方案——PagedAttention。

近日,来自 DeepSeek 的 AI 研究员、深度学习系统工程师俞星凯从零开始构建了一个极简版本的 vLLM 实现——Nano-vLLM,将整个项目代码压缩到了仅 1200 行以内。

目前该项目已在 GitHub 上获得超过 200 颗 Star。

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版图片GitHub 地址:https://www.php.cn/link/b3f2a6b3e119aaa5a1326802e7b49403

具体来看,Nano-vLLM 具备以下三大核心特点:

第一,具备高效的离线推理能力,推理速度与原版 vLLM 相当。

第二,代码结构简洁易读,Python 总行数控制在了 1200 行以内。

第三,集成了多项优化工具,如 Prefix 缓存、Torch 编译以及 CUDA 计算图等特性。

俞星凯在进行基准测试时使用了如下配置:

硬件:RTX 4070模型Qwen3-0.6B总请求数:256 个序列输入长度:100–1024 tokens 范围内随机输出长度:100–1024 tokens 范围内随机测试结果如下表所示,Nano-vLLM 与 vLLM 输出 token 完全一致,响应时间略高,推理速度(吞吐量)稍有差距,但整体表现非常接近。

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版图片开发者简介

Nano-vLLM 的作者俞星凯目前任职于 DeepSeek,曾参与 DeepSeek-V3 和 DeepSeek-R1 的研发工作。

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版图片值得一提的是,根据其 GitHub 主页显示,他还开发过一个植物大战僵尸 Qt 版本,该项目也已获得 270 多颗 Star。此外,由于本科就读于南京大学,他还参与了不少南大的计算机相关项目,包括南京大学计算机图形学绘图系统、南京大学分布式系统 Raft 算法最简实现、南京大学操作系统 OSLab 等。

根据其 LinkedIn 页面信息显示,他曾先后在腾讯、幻方(DeepSeek 母公司)和字节跳动实习,并于 2023 年正式加入 DeepSeek 成为一名深度学习系统工程师。

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版图片你是 vLLM 用户吗?你会考虑尝试 Nano-vLLM 吗?

© THE END

转载请联系本公众号获取授权

以上就是1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版的详细内容,更多请关注php中文网其它相关文章!

DeepSeek (深度求索)
DeepSeek (深度求索)

DeepSeek (深度求索)杭州深度求索(DeepSeek)官方推出的AI助手,免费体验与全球领先AI模型的互动交流。它通过学习海量的数据和知识,能够像人类一样理解和处理信息。多项性能指标对齐海外顶尖模型,用更快的速度、更加全面强大的功能答疑解惑,助力高效美好的生活。

下载
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号