minimax 联合华中科技大学首次对外开源其视觉生成核心技术——vtp(visual tokenizer pretraining,视觉分词器预训练)。该技术在不改动标准dit架构的前提下,仅通过对视觉分词器(visual tokenizers)进行扩展与优化,便实现了高达 65.8% 的端到端生成性能提升。

区别于多数分词器相关研究,VTP 的设计理念强调“零侵入”:它完全不干预下游主干模型(如 DiT)的训练流程,所有改进均集中在前置的 tokenizer 模块上,从而以极低耦合代价达成生成质量的显著跃升。
VTP 预训练范式如下:

简言之——VTP 首次在理论上与实践中建立起 latent 表示的易学性(learnability)与通用表征能力之间的强关联,进而将 tokenizer 推至模型缩放(scaling)舞台的中心。它不仅展现出清晰、稳健的 scaling 规律,更指明了一条独立于主模型参数增长之外的全新性能提升路径:即通过 tokenizer 自身的规模化设计与训练,驱动整个生成系统的持续进化。
代码仓库:https://www.php.cn/link/af5ac7432f2b60611a2b2081da85bdc0
论文地址:https://www.php.cn/link/2c144615541213bbe63e9d81c4727883
源码下载:点击获取
以上就是MiniMax 开源视觉分词器扩展技术 VTP的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号