终结闭源垄断!黑森林实验室重磅开源旗舰图像模型:对标GPT-4o

终结闭源垄断!黑森林实验室重磅开源旗舰图像模型:对标GPT-4o

Black Forest Labs 刚刚宣布开源图像编辑模型 FLUX.1 Kontext [dev]

图片

FLUX.1 Kontext [dev] 是 Black Forest Labs 旗舰产品 FLUX.1 Kontext [pro] 的开发者版本,拥有120亿(12B)参数的强大模型,经过优化,可在消费级硬件上高效运行,实现了媲美专有工具的顶级图像编辑性能,对标GPT-4o和Gemini 图像生成功能

图像编辑基准测试平台 KontextBench评估,人类偏好评估结果显示:

FLUX.1 Kontext [dev] 在多项图像编辑类别(如全局指令编辑、局部编辑、风格迁移、文本植入等)中,性能全面超越了现有的开源模型(如 字节 Bagel, HiDream-E1-Full)和顶尖的闭源模型(如 Google Gemini-Flash Image)。这一结论也得到了第三方评测机构 Artificial Analysis的独立验证

图片

此次发布的 gpt 教程 FLUX.1 Kontext [dev] 遵循 FLUX.1 非商业许可(Non-Commercial License),为广大研究人员和开发者提供免费的非商业使用权限

为了确保开发者能够快速上手,该模型具备以下特点:

  • • 
    即刻可用
    :模型与现有的 FLUX.1 [dev] 推理代码完全兼容。
  • • 
    生态支持
    :提供对 ComfyUI、HuggingFace Diffusers 和 TensorRT等主流推理框架的“零日支持”(day-0 support)
  • • 
    云端与本地部署
    :通过与 FAL、Replicate、Runware、DataCrunch、TogetherAI和 ComfyUI等合作伙伴的紧密合作,提供简单易用的API接口和代码,支持云端或本地推理

Black Forest Labs 与 NVIDIA展开深度合作,为最新的 NVIDIA Blackwell 架构构建了高度优化的 TensorRT 权重。这一优化带来了巨幅性能提升:

图片
  • • 
    速度
    :相比于标准的 BF16 Torch 推理,FP4 TensorRT 版本实现了超过2.1倍的速度提升。
  • • 
    效率
    :在大幅提升推理速度的同时,显著降低了显存占用,同时保持了高质量的图像编辑效果。

除了原始权重,BF16、FP8 和 FP4 的 TensorRT 优化版本也已在 Hugging Face 上提供,开发者可根据自身对速度、效率和质量的需求灵活选择

为了简化商业应用,Black Forest Labs 推出了全新的 BFL 自服务授权门户(BFL Self-Serve Portal)。该门户提供透明的条款和标准化的商业许可,企业开发者只需几次点击,即可为 FLUX.1 系列模型(包括本次发布的 Kontext [dev])购买商业授权,从而加速从开发到部署的进程。

同时,官方也更新了非商业许可条款,进一步明确了非商业用途的定义、内容来源追溯的要求以及使用限制,以保障模型的健康发展和合规使用。

  • • 
    模型权重
    : https://huggingface.co/black-forest-labs/FLUX.1-Kontext-dev
  • • 
    代码
    : https://github.com/black-forest-labs/flux
  • • 
    API文档: https://docs.bfl.ai/quick_start/introduction
  • • 
    自服务门户
    : http://bfl.ai/pricing/licensing
  • • 
    技术报告
    : 可在 https://arxiv.org/查阅

  • 教程:https://docs.comfy.org/tutorials/flux/flux-1-kontext-dev
  • 图片

参考:

https://bfl.ai/announcements/flux-1-kontext-dev

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/243089.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月15日 下午10:24
下一篇 2026年3月15日 下午10:25


相关推荐

关注全栈程序员社区公众号