图像模型开源领域迎来新突破!Black Forest Labs正式宣布开源其旗舰级图像编辑模型FLUX.1 Kontext[dev]。这款模型虽仅有12B参数,却展现出与GPT-image-1等闭源大模型相媲美的强大能力,并且支持在消费级显卡上流畅运行。 借助FLUX.1 Kontext[dev],用户可轻松完成多种图像编辑任务。例如让小狗瞬间从画面中消失,为小老鼠“戴上”胡须,添加文字或更换背景也变得异常简单。更值得一提的是,该模型支持多轮指令输入,允许用户反复调整,直到生成满意的图像效果。 FLUX.1 Kontext[dev]具备多项突出特性: 它能根据文本指令直接对现有图像进行修改,实现精准的局部和全局编辑。无需微调即可复用角色、风格和物体元素。支持连续多次编辑操作,在保证视觉一致性的同时显著降低视觉漂移问题。此外,模型还针对NVIDIA Blackwell架构进行了TensorRT权重优化,进一步提升性能表现。 网友们对该模型表现出极大热情,纷纷动手实测。有人创作出戴着墨镜、身穿红毛衣的旅行CPU青蛙;有人复制心仪动漫人物形象;更有创意达人将其与LoRA结合,开发出一款Kontext风格化肖像生成APP。目前,FLUX.1 Kontext[dev]已全面兼容ComfyUI,官方还开放了试玩API接口,点击文末链接上传图片即可立即体验。 不少网友评价Black Forest Labs堪称“图像界的DeepSeek”。此前发布的FLUX.1 Kontext系列因出色的上下文理解与图像编辑能力广受赞誉。不同于传统文生图模型,FLUX.1 Kontext支持上下文感知的图像生成,能够同时接受图像和文本作为提示输入,无缝提取并修改图像细节。目前已推出专业版FLUX.1 Kontext[pro]和高配版FLUX.1 Kontext[max]。 此次开源的FLUX.1 Kontext[dev]继承了该系列的核心优势,专注于图像编辑功能,并可在普通消费级硬件上高效运行。模型架构基于FLUX.1——一种在图像自动编码器潜在空间中训练的整流流Transformer结构,采用双流与单流模块混合设计。在此基础上,通过优化标记序列构建和位置信息编码增强性能。 其中,标记序列构建是将图像经由冻结的FLUX自动编码器编码为潜在上下文图像标记,并送入模型的视觉流;位置编码则利用三维旋转位置嵌入(3D RoPE),为上下文标记引入恒定偏移量,视作虚拟时间步,有效分离上下文块与目标块,同时保留其内部空间结构。 训练过程中,采用整流流匹配损失函数,从FLUX.1文生图检查点出发,收集并整理数百万组关系对用于优化。随后使用潜在对抗扩散蒸馏(LADD)技术对优化后的流匹配模型进行压缩,在减少采样步数的同时提升生成质量,使模型更加高效。最终版本的FLUX.1 Kontext[dev]包含120亿参数,专精于编辑任务,支持迭代式编辑,能在复杂场景中稳定保留角色特征,实现精细的局部或整体修改。 为了评估模型性能,团队推出了自研评测基准KontextBench,涵盖1026个图像-提示对,涉及局部编辑、全局编辑、角色参考、风格参考和文本编辑五大类别。实验结果显示,FLUX.1 Kontext[dev]在多个指标上超越现有开源及闭源模型,包括字节跳动的Bagel、HiDream-E1-Full以及OpenAI的GPT-image-1等。 值得一提的是,FLUX.1 Kontext[dev]特别针对NVIDIA Blackwell架构完成了TensorRT权重优化,不仅大幅提升推理速度,还显著降低内存占用。官方提供了BF16、FP8和FP4三种TensorRT权重变体,用户可根据需求灵活权衡速度、效率与画质,充分发挥新一代GPU硬件潜力。 实际测试反馈显示,该模型推理速度相较前代提升了4到5倍,在NVIDIA H100 GPU上平均5秒内即可完成一次生成,在Replicate平台上的单次调用成本约为0.0067美元,相当于每1美元可运行约149次。不过也有用户指出,在MacBook Pro搭载的M系列芯片上运行时,每次迭代耗时较长,大约需要1分钟。 欢迎各位亲自尝试这一强大工具,并在评论区分享你的使用体验! 试玩链接:https://huggingface.co/spaces/black-forest-labs/FLUX.1-Kontext-Dev 论文链接:https://arxiv.org/abs/2506.15742 代码链接:https://github.com/black-forest-labs/flux/blob/main/docs/image-editing.md
以上就是120亿参数图像模型FLUX.1 Kontext[dev]开源,性能对标GPT - image - 1的详细内容,更多请关注php中文网其它相关文章!
 
                Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号