jan团队发布了jan-v2-vl-max,一个30b多模态模型,专为长周期执行任务设计。模型基于qwen3-vl-30b-a3b-thinking,并采用lora-based rlvr技术提升稳定性并减少多步执行中的误差累积。

据介绍,该模型在“幻象递减回报”基准测试中超越Gemini 2.5 Pro和DeepSeek R1,衡量了执行长度,被设计用于Agent自动化与UI控制等涉及多步稳定执行的任务。

根据官方评测,该模型在长序列执行方面较基础模型有小幅提升。用户可通过网页端界面直接使用,也可在本地通过vLLM进行部署。
模型地址:https://huggingface.co/janhq/Jan-v2-VL-max-FP8
源码地址:点击下载










