欢迎大家收看《rwkv 社区最新动态》,本期内容汇总了 rwkv 社区在 2025 年 11 月的前沿进展与重要事件。
RWKV 模型重要更新
RWKV 学术研究突破
RWKV 社区市场亮相
RWKV 2025 生态内容征集大赛|10–11 月投稿汇总及获奖名单揭晓
2025 年 11 月 1 日,RWKV7-G0a3 13.3B 推理版本正式开源。作为目前全球最先进、推理能力最强的纯循环神经网络(RNN)结构大语言模型,该模型标志着 RWKV 架构在长序列建模与高效推理方向的重大飞跃。
{{{width=“auto” height=“auto”}}}
延伸阅读:RWKV7-G0a3 13.3B 发布:世界最强纯 RNN 大语言模型
更进一步,性能更强的 RWKV7-G0b 13.3B 已完成权重训练并对外发布,官方正式公告即将上线。
{{{width=“auto” height=“auto”}}}
Bo 表示:“Ilya 在近期播客中指出,AI 领域正从‘规模化时代’回归‘基础研究时代’。你是否认同这一趋势判断?”
{{{width=“auto” height=“auto”}}}
详细解读:RWKV7+ROSA 仅凭 39564 参数实现 60 位整数精准反转|四大 ROSA 实验同步公开
Otter 提出一种专为广角摄像头设计的小样本动作识别新方法,通过增强型 RWKV 架构有效抑制复杂背景干扰。其核心包含复合分割模块(CSM)以聚焦主体区域,以及时间重构模块(TRM)进行双向时序扫描,显著提升模型在真实场景下的鲁棒性与泛化能力。
该工作因技术原创性与实用价值突出,被 AAAI 2026 接收为 Oral 报告。
{{{width=“auto” height=“auto”}}}
本研究提出 RS-RWKV——一种面向遥感图像全色锐化的 RWKV 新变体。为克服视觉 RWKV 中固有的单向扫描偏差,作者引入受贝叶斯启发的随机洗牌(Random Shuffle)机制;同时借助 WKV 共享策略实现更高阶的空间-光谱联合建模,在降低延迟的同时大幅提升重建质量,多项基准测试结果达 SOTA。
该成果已发表于顶级会议 NeurIPS 2025。
{{{width=“auto” height=“auto”}}}
SleepRWKVNet 是一款面向临床睡眠监测的多模态自动分期网络。它采用双向交互式 RWKV(Bi-IFM)模块统一建模 EEG、EOG、EMG 等长程生理信号,并首次引入基于人体睡眠生理规律的序列感知损失函数 PS-Loss,缓解类别极度不均衡问题,显著提升各睡眠阶段判别准确率。
该研究发表于中科院 二区期刊 BSPC。
{{{width=“auto” height=“auto”}}}
DREAMSTATE 创新性地将扩散模型思想引入 RWKV 架构,利用 DiT(Diffusion Transformer)对模型内部隐状态的概率流形进行可控建模,支持细粒度文本生成调控。此外,将静态 WKV 参数视为“结构性噪声”,由 DiT 动态生成适配上下文的参数配置,验证了该混合范式的可行性与扩展潜力。
{{{width=“auto” height=“auto”}}}
本文提出 EGGROLL——一种专为 RWKV-7 等超大规模模型设计的演化策略微调算法。通过以低秩扰动替代传统全秩扰动,大幅削减内存占用与计算开销,使数十亿参数模型的大种群进化优化成为现实。实验表明,该方法在强化学习与整数语言建模等任务中均具备强竞争力。
{{{width=“auto” height=“auto”}}}
RawRWKV 是首个将 RWKV 应用于原始图像(raw image)低照度增强任务的端到端框架。通过将 RWKV 的线性注意力机制嵌入 U-Net 主干,既保留了全局依赖建模能力,又显著降低了计算复杂度,在多个指标上超越 CNN 与 Transformer 基线,实现性能与效率双赢。
{{{width=“auto” height=“auto”}}}
ASALP 是一套基于增强 RWKV-EFE 模型的边缘资源弹性调度系统。该架构部署于 Kubernetes-KubeEdge 平台,可提前预测负载波动并主动触发扩缩容策略,从根本上解决原生 HPA 的响应滞后问题,大幅提升边缘服务请求成功率与系统稳定性。
{{{width=“auto” height=“auto”}}}
MRT 提出一种 RWKV 与 Transformer 协同工作的混合压缩架构,充分发挥 RWKV 对全局结构的建模优势与 Transformer 对局部纹理的捕捉能力,将图像编码为高度紧凑的一维隐式表示,并配套设计 RWKV 压缩模型(RCM),进一步压缩冗余信息,达成极致压缩比。
{{{width=“auto” height=“auto”}}}
该研究针对长视频理解中的计算瓶颈,构建 RWKV-Transformer 混合骨干网络。通过选择性替换部分 Transformer 层为 RWKV 模块,并结合参数复用与渐进式知识蒸馏策略,在不牺牲 token 分辨率的前提下显著提升吞吐量,且在多个主流视频理解基准上保持甚至超越原始模型精度。
{{{width=“auto” height=“auto”}}}
本研究将改进版 RWKV 替换 Decision Transformer 中的自注意力模块,重点优化通道混合结构以适配机器人控制任务。在 D4RL 标准数据集上的实验证明,该方法在训练速度与策略收敛精度两方面均优于现有基线。
{{{width=“auto” height=“auto”}}}
2025 年 11 月 9 日,RWKV 团队受邀亮相“2025 直通乌镇全球互联网大赛”,凭借 RWKV 在 AI 基础模型领域的原创性突破与工程化能力,荣获人工智能赛道 一等奖。
{{{width=“auto” height=“auto”}}}
2025 年 11 月 15–16 日,RWKV 团队受邀出席 XIN 峰会,围绕“下一代高效大模型架构”展开技术分享与生态共建讨论。
{{{width=“auto” height=“auto”}}}
2025 年 11 月 14–16 日,RWKV 团队参展第 27 届高交会,集中展示 RWKV 在工业智能、边缘计算与多模态理解等方向的技术落地案例。
{{{width=“auto” height=“auto”}}}
2025 年 11 月 1 日,RWKV 团队亮相 2025 GOTC 全球开源技术峰会,在大模型应用技术论坛带来题为《RWKV:开源高效大模型的新范式》的主题演讲。
{{{width=“auto” height=“auto”}}}
2025 年 11 月 1 日,RWKV 团队出席 RTE 2025 实时互动技术大会,分享 RWKV 在语音识别、TTS 与实时音频处理中的前沿实践与优化经验。
{{{width=“auto” height=“auto”}}}
我们于 2024 年底正式启动 “RWKV 2025 生态内容征集大赛”,面向全球开发者、研究者与教育者开放投稿,涵盖 RWKV 相关论文、教学资料、工具库、行业应用等多个方向。
2025 年 10 至 11 月期间,共收到高质量投稿 3 篇学术论文 + 2 个开源应用项目。
| 作品名称 | 类型 | 投稿人 | 初评奖项 | 论文/项目链接 |
|---|---|---|---|---|
| GDSR | 论文 | Doswin | 铜奖 | https://www.php.cn/link/d5f6b27eed9d01f58d2e943b6c319081 |
| RWKV-VIO | 论文 | kamuyi | 铜奖 | https://www.php.cn/link/31a67bdbe13f907c857a7a27a3111509 |
| rwkv_ops | 应用 | 路过的小林 | 铁奖 | https://www.php.cn/link/42bf85196c63fadb97cc4123d7ecf834 |
| chirrup | 应用 | Leon | 银奖 | https://www.php.cn/link/5e740f261196151a0b02c7b2fccf6ae6 |
| 基于动态邻接融合与通道混合的图神经网络社团检测方法 | 论文 | XQ | 参与奖 | https://www.php.cn/link/95b2a1df756b9e6e67bfacd25c2c6110 |
诚挚邀请您加入 RWKV 开源社区,共同推动高效大模型技术的发展与普及。您可通过以下渠道了解 RWKV、参与讨论或贡献代码:
源码获取:https://www.php.cn/link/da969836ff9696f9c182a7026558fe234
以上就是RWKV 社区十一月动态:10 篇新论文,G0a3 13.3B 发布的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号