近日,阿里云重磅发布通义千问qwen3-max,这是通义团队迄今为止参数规模最大、综合能力最强的ai大模型。该模型总参数量突破1t,基于高达36t tokens的数据完成预训练,在多项核心基准测试中表现惊艳,标志着中国在国际ai大模型竞争格局中的影响力持续增强。
Qwen3-Max涵盖Base、Instruct和Thinking三大版本。其中,Qwen3-Max-Instruct正式版已上线Qwen Chat平台,并通过阿里云百炼开放API接口服务。其预览版曾在LMArena文本榜单上稳居全球前三,超越GPT-5-Chat。此次发布的正式版本在代码生成、智能体任务执行、指令理解、知识推理、多语言处理及人类偏好对齐等方面全面优化,整体性能达到行业领先水平。
在聚焦真实编程场景的SWE-Bench Verified测试中,Qwen3-Max-Instruct斩获69.6分的优异成绩。而在评估智能体工具调用能力的Tau2-Bench中,它以74.8分力压Claude Opus 4与DeepSeek-V3.1,充分展示了其在复杂任务调度与代码自动生成方面的强大实力。
Qwen3-Max-Thinking作为专为推理增强打造的版本,目前仍在训练阶段,但已显现出巨大潜力。该版本融合了代码解释器功能,并采用并行测试时计算技术,显著提升了逻辑推导效率。在极具挑战性的数学推理评测如AIME 25和HMMT中,Qwen3-Max-Thinking均取得满分佳绩,展现出卓越的深度推理能力。通义团队透露,该版本预计将在不久后正式面向公众推出。
从架构设计来看,Qwen3-Max延续了Qwen3系列的技术路线,采用了global-batch load balancing loss机制。得益于其MoE(Mixture of Experts)结构设计,模型在预训练过程中loss曲线平稳流畅,未出现任何尖刺波动,全程无需回退训练或调整数据分布策略,实现了高效稳定的端到端训练。
在训练效率方面,Qwen3-Max同样表现亮眼。借助PAI-FlashMoE的多级流水并行优化方案,Qwen3-Max-Base的训练效率大幅提升,MFU(Model FLOPs Utilization)相较Qwen2.5-Max-Base提升达30%。针对长序列训练场景,引入ChunkFlow策略后,吞吐量较传统序列并行方式提高3倍,成功支撑起长达1M token上下文的训练需求。同时,通过SanityCheck、EasyCheckpoint以及调度链路优化等多项技术创新,超大规模集群因硬件故障导致的训练中断时间损失仅为Qwen2.5-Max的五分之一。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

目前,用户可通过Qwen Chat官网直接与Qwen3-Max-Instruct进行交互对话,API服务也已全面开放。即日起,公众可在通义千问QwenChat平台免费体验Qwen3-Max的强大功能,也可通过阿里云百炼平台接入API服务,实现快速集成与应用开发。

Qwen3-Max的推出,为金融、教育、医疗、制造等多个领域提供了更强劲的AI引擎支持。随着模型能力不断进化、工具链日益完善以及API生态持续扩展,大模型的应用边界将进一步拓宽。未来,我们有望见证更多像Qwen3-Max这样的前沿模型诞生,共同推动人工智能技术迈向新高度。
以上就是阿里推出万亿参数通义千问Qwen3 - Max,多项能力超越竞品的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号