爆火全网FLUX.2重磅上线,开源版Nano Banana来了!
【导读】Black Forest Labs的开源视觉模型FLUX.2上新,这是一款专为现实创意工作流程打造,绝非演示噱头的生产力工具,与前代FLUX.1相比,实现了从「会画」到「懂你要画什么」的跃升。
设计师要解放了!
刚刚,专为真实设计流程打造的视觉AI模式重磅发布。
假设你是一名设计师,正准备做一份产品海报。
按以往流程,你要先找图、修图、调光、排版、对齐Logo、试十几版字体……
等这些都做完了,也许客户或老板早已等得不耐烦了,也许后面还有无穷的改稿等着你。
「不是我没创意,而是时间不够!」
灵光乍现很简单,乍现的灵光落实到执行层大都是耗时费力的苦活累活。
如果有一天你只需要告诉电脑,你想出一份什么样的产品海报,这些苦活累活都有人帮你干了,这是一种什么感觉?
近日,Black Forest Labs推出的一款FLUX.2的视觉模型,让这这件事成为可能。

FLUX.2是一款专为现实创意工作流程打造,绝非演示噱头的生产力工具。
更重要的一点,它是开源的。

更低的价格,纳米香蕉版的品质,妥妥的设计师福利。
不炫技,让前沿视觉AI人人可用
FLUX.2 专为真实世界的创意工作流程打造,而不是只做演示或炫技。
它能够生成高质量图像,并在多个参考图像之间保持角色和风格的一致性;能理解结构化提示词;能阅读与生成复杂文本;能稳定处理光照、布局与Logo……
此外,它还能在最高4兆像素下进行图像编辑,同时保持细节与整体一致性。
这些媲美顶级视觉模型的能力,如今已经全部开源,这与Black Forest Labs的开放核心理念有关:
「我们相信,视觉智能应该由全球的研究者、创作者和开发者共同塑造,而不是集中在少数人手中。」
因此,自2024年创立之日起,他们一直致力于将前沿能力与开放研究结合,发布强大、透明且易组合的开放权重模型,同时为需要规模化、可靠性与自定义的团队提供稳健、可直接投入生产的服务接口。
它们将 FLUX.1 [dev](全球最受欢迎的开放图像模型)与专业级模型 FLUX.1 Kontext [pro] 结合,后者已被Adobe、Meta等团队使用。
Black Forest Labs通过开放核心策略促进实验、降低成本、鼓励审查,并确保能持续地把来开放技术带给更多的人。
FLUX.2
从能画东西,到「懂你要画什么」
FLUX.1作为创意工具已经很强了,能跟随提示词作创意。
FLUX.2的升级,像从「会画画的人」跃迁到「会观察、会分析、会推理的视觉大脑」。
这意味着前沿视觉AI能力正在改变生产流程和成本结构,成为未来创意基础设施中不可替代的组成部分。

所有FLUX.2变体均在一个模型中提供基于文本和多个参考图像的图像编辑功能。
为什么FLUX.2能够懂你要画什么,并且按照你的意思画出来,因为它一次把下列能力组合在了一起:
多参考支持:一次最多读10张参考图像,可以实现目前最佳的角色 / 产品 / 风格一致性。
图像细节与拟真度提升:更高细节、更锐利的纹理、更稳定的光照,适用于产品拍摄、可视化与类摄影应用。
更强文本渲染:复杂排版、信息图、表情包、UI设计稿中的小字现在可以稳定生成。
听得懂复杂指令:更强的提示词遵循能力,对复杂、结构化、多部分提示词与组合约束的执行更稳定。
理解空间与光线:更强世界知识理解,对真实世界、光照逻辑与空间结构的理解更扎实,使生成场景更自然、更符合预期。
高分辨编辑:更高分辨率与更灵活的比例,支持最高4兆像素的图像编辑。

输出多样性:FLUX.2能够生成高度精细的逼真图像以及包含复杂排版的信息图,分辨率最高可达400万像素(4MP)。
开箱即用
FLUX.2模型家族
性价比是FLUX.2模型系列的强项,在各性能层级中以极具竞争力的价格提供业界领先的图像生成质量。
FLUX.2模型家族从完全托管、可直接生产的API,一直到开发者可本地运行的开放权重模型一应俱全。
下面是FLUX.2 [pro]、FLUX.2 [flex]、FLUX.2 [dev] 与 FLUX.2 [klein] 的定位与适用场景:
FLUX.2 [pro]:图像质量达到顶级封闭模型水平,提示词遵循与画面保真度表现一流,同时生成更快、成本更低,实现速度与质量的双赢。可在BFL Playground、BFL API及合作伙伴平台使用。
FLUX.2 [flex]:允许调整步数、引导规模等参数,让开发者在质量、提示词执行力与速度之间自定义平衡。尤其擅长渲染文本与精细细节。可在bfl.ai/play、 BFL API及合作伙伴平台使用。
FLUX.2 [dev]:32B 开放权重模型,由 FLUX.2 基础模型衍生,是目前最强的开放权重图像生成与编辑模型。它将文本生成图像与多图像编辑集成在一个 checkpoint 中。权重已在Hugging Face发布,可使用官方推理代码本地运行。在消费级 GPU(如 GeForce RTX)上,可使用 NVIDIA 与 ComfyUI 合作优化的 fp8 推理版本。你也可以通过 FAL, Replicate, Runware, Verda, TogetherAI, Cloudflare, DeepInfra的API使用 FLUX.2 [dev]。
FLUX.2 [klein](即将上线):开源、Apache 2.0模型,由FLUX.2基础模型尺寸蒸馏而来,比同类从零训练的模型更强、更适合开发者,并保留大量教师模型的能力。可以加入测试计划。
FLUX.2 - VAE:全新的变分自编码器,在可学习性、质量与压缩率之间实现最佳平衡,是所有FLUX.2 flow主干的基础。技术报告已发布,模型在HF上以Apache 2.0许可提供。

使用可变步数生成设计:FLUX.2 [flex] 的「步数」参数允许在排版精度与延迟之间自由权衡。从左到右:6步、20步、50步。

通过可变步数控制图像细节:FLUX.2 [flex] 提供了一个「步数」参数,用于在图像细节和延迟之间进行权衡。从左至右分别为:6 步、20 步、50 步。

FLUX.2 系列以极具竞争力的价格提供顶级图像生成质量,跨不同性能层级都具备最强性价比。


对于开放权重模型,FLUX.2 [dev] 设立了新的业界标准,在文本生成图像、单参考编辑、多参考编辑等方面均达领先水平,并稳定超越所有其他开放权重替代品。
工作原理
FLUX.2基于潜空间的流匹配架构构建,并将图像生成与编辑整合在同一个模型中。
该模型将24B参数的Mistral-3视觉语言模型与rectified flow Transformer 结合。

https://docs.mistral.ai/models/mistral-small-3-2-25-06
VLM提供现实世界知识与语境理解,而Transformer捕捉空间结构、材质特性与构图逻辑,这些是早期架构难以呈现的。
研究人员从零重新训练了模型的潜空间,使其在可学习性与图像质量之间取得更优平衡。
参考资料:
https://x.com/bfl_ml/status/1993345470945804563?s=20%20
https://bfl.ai/blog/flux-2
秒追ASI
⭐点赞、转发、在看一键三连⭐
点亮星标,锁定极速推送!
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社