yuanlab.ai 团队正式对外开源 源 yuan3.0 flash 多模态基础大模型。本次发布涵盖完整模型权重(支持16bit与4bit量化版本)、详尽技术白皮书、全流程训练方案及全面评测数据,全面开放社区进行后续微调、二次训练与垂直领域定制化开发。
据官方说明,Yuan3.0 Flash 是一款参数量达40B的多模态基础大模型,基于稀疏混合专家(MoE)架构设计,单次前向推理仅动态激活约3.7B参数。该模型首次提出并落地强化学习优化范式 RAPO(Reflection-Aware Policy Optimization),并创新引入反思抑制奖励机制(RIRM),从训练源头约束模型减少冗余反思行为,在保障甚至提升逻辑推理准确率的同时,显著削减推理阶段的 token 生成量,从而大幅压缩计算资源消耗,在“低算力开销、高智能水平”的大模型演进方向上实现关键突破。
Yuan3.0 Flash 整体由三大部分构成:高性能视觉编码器、高效语言主干网络,以及鲁棒的多模态对齐模块。其中,语言主干采用局部过滤增强型注意力机制(LFA)与MoE结构协同设计,在提升注意力建模精度的基础上,有效缓解训练与推理过程中的显存压力与算力负担。
在多模态融合方面,模型通过视觉编码器将图像信息编码为统一语义token,与文本token共同输入语言主干,并借助多模态对齐模块完成跨模态特征的精准、稳定映射。此外,系统集成自适应图像分块策略,既可支撑超高分辨率图像理解任务,又可显著降低GPU显存占用与整体计算开销。

公告指出,在面向企业级落地的关键任务中——包括RAG增强对话(ChatRAG)、多模态文档检索(Docmatix)、多模态表格解析(MMTab)以及智能摘要生成(SummEval)——Yuan3.0 Flash 的综合性能已超越 GPT-5.1,展现出更强的产业适配性与实用价值。
在权威多模态推理与纯语言理解评测中,Yuan3.0 Flash(40B)的精度表现逼近 Qwen3-VL235B-A22B(235B)与 DeepSeek-R1-0528(671B)等超大规模模型,但其平均 token 消耗仅为上述模型的 1/4 至 1/2,为企业部署轻量高效的大模型解决方案提供了全新选择。
iWebShop基于iWebSI框架开发,在获得iWebSI技术平台库支持的条件下,iWebShop可以轻松满足用户量级百万至千万级的大型电子商务网站的性能要求。站点的集群与分布式技术(分布式计算与存储/高可用性/负载均衡)被屏蔽在SI 平台之内,基于iWebShop并且按照SI平台库扩展规范开发的新增功能模块,也将同时获得这种超级计算与处理的能力。作为开源的LAMP电子商务系统,iWebShop


源 Yuan 3.0 系列基础模型将按能力与规模划分为 Flash、Pro 和 Ultra 三大版本,对应参数量分别为 40B、200B 与 1T,满足不同场景下的性能与成本需求。
源码获取地址:点击下载









