🚀 BRIA 2.3 FAST:用于商业许可的文本到图像模型
BRIA 2.3 FAST 是文本到图像模型,是 BRIA 2.3 的 LCM 版本。该模型在 2.X 系列中实现了质量和延迟的最佳平衡,且专门在合法数据上进行训练,将技术创新与道德责任和法律安全独特地结合在一起。
重要提示
- Bria AI 模型权重仅开源供非商业使用,遵循所提供的 许可证。
- 若要获取法律责任保障,请安装 Bria 代理。
使用建议
- 推理时,必须设置
pipe.force_zeros_for_empty_prompt = False
。
- 建议使用负提示词。
- 模型支持多种宽高比,但分辨率总体应约为
1024*1024 = 1M
像素。
- 快速模型只需 8 步即可很好地工作。
- 对于快速模型,使用
guidance_scale
为 1.0 或 0.0,在此配置下负提示词无关紧要。
🚀 快速开始
BRIA 2.3Fast 在你构建的任何地方都可用,包括源代码和权重、ComfyUI 节点或 API 端点:
商业使用
更多信息,请访问我们的 网站。加入我们的 Discord 社区,获取更多信息、教程、工具,并与其他用户交流!
✨ 主要特性
- 合法合规:为版权和隐私侵权提供全面的法律责任保障。由于在来自领先数据合作伙伴的 100% 许可数据上进行训练,确保了内容的道德使用。
- 专利归属引擎:归属引擎是对数据合作伙伴的一种补偿方式,由我们的专有专利算法提供支持。
- 企业适用:专为商业应用设计,Bria AI 2.3 可为各种商业需求提供高质量、合规的图像。
- 可定制技术:提供源代码和权重,便于进行广泛的定制,以满足特定的业务需求。
📦 安装指南
pip install diffusers
💻 使用示例
基础用法
from diffusers import UNet2DConditionModel, DiffusionPipeline, LCMScheduler
import torch
unet = UNet2DConditionModel.from_pretrained("briaai/BRIA-2.3-FAST", torch_dtype=torch.float16)
pipe = DiffusionPipeline.from_pretrained("briaai/BRIA-2.3-BETA", unet=unet, torch_dtype=torch.float16)
pipe.force_zeros_for_empty_prompt = False
pipe.scheduler = LCMScheduler.from_config(pipe.scheduler.config)
pipe.to("cuda")
prompt = "A portrait of a Beautiful and playful ethereal singer, golden designs, highly detailed, blurry background"
image = pipe(prompt, num_inference_steps=8, guidance_scale=1.0).images[0]
📚 详细文档
新增特性
BRIA 2.3 FAST 是 BRIA 2.3 的快速版本,在速度和准确性之间实现了最佳平衡。该模型经过精心设计,在标准 NVIDIA A10 GPU 上生成图像仅需 1.64 秒,在推理时间减少 80% 的情况下仍能实现出色的图像质量。
该模型采用 LCM 技术进行蒸馏,支持多种宽高比,默认分辨率为 1024x1024。与 Bria AI 2.3 类似,它在真实感和美学方面有所改进。
评估显示,该模型的图像质量与教师模型 BRIA 2.3 相当,并且优于 SDXL LCM。虽然 SDXL Turbo 速度更快,但该模型在支持更高分辨率的情况下,生成的人脸效果明显更好。这些评估是通过衡量人类偏好进行的。
点击此处查看演示
模型信息
属性 |
详情 |
开发者 |
BRIA AI |
模型类型 |
文本到图像模型 |
许可证 |
BRIA 2.3 FAST 许可条款和条件。需购买许可证才能访问该模型。 |
模型描述 |
BRIA 2.3 Fast 是一个高效的文本到图像模型,仅在专业级许可数据集上进行训练。专为商业使用而设计,提供全面的法律责任保障。 |
更多信息资源 |
BRIA AI |