🚀 BRIA背景去除v1.4模型卡片
BRIA背景去除v1.4模型是一款先进的背景去除模型,能够在多种类别和图像类型中,高效地将前景与背景分离。该模型在精心挑选的数据集上进行训练,涵盖通用库存图像、电子商务、游戏和广告内容等,适用于企业级大规模内容创作的商业场景。其准确性、效率和通用性可与当前领先的开源模型相媲美,尤其适用于对内容安全、合法授权数据集和偏差缓解有较高要求的场景。
此模型由BRIA AI开发,以开源形式提供非商业用途。若需购买商业许可证,只需点击此处。
点击此处查看演示
注意:新版RMBG已发布!查看RMBG - 2.0
加入我们的Discord社区,获取更多信息、教程、工具,并与其他用户交流!

✨ 主要特性
- 基于精心挑选的数据集训练,涵盖多种图像类型,适用于商业内容创作。
- 准确性、效率和通用性高,可与领先的开源模型竞争。
- 适用于对内容安全、合法授权数据集和偏差缓解要求高的场景。
📦 安装指南
pip install -qr https://huggingface.co/briaai/RMBG-1.4/resolve/main/requirements.txt
💻 使用示例
基础用法
from transformers import pipeline
image_path = "https://farm5.staticflickr.com/4007/4322154488_997e69e4cf_z.jpg"
pipe = pipeline("image-segmentation", model="briaai/RMBG-1.4", trust_remote_code=True)
pillow_mask = pipe(image_path, return_mask = True)
pillow_image = pipe(image_path)
高级用法
from transformers import AutoModelForImageSegmentation
from torchvision.transforms.functional import normalize
model = AutoModelForImageSegmentation.from_pretrained("briaai/RMBG-1.4",trust_remote_code=True)
def preprocess_image(im: np.ndarray, model_input_size: list) -> torch.Tensor:
if len(im.shape) < 3:
im = im[:, :, np.newaxis]
im_tensor = torch.tensor(im, dtype=torch.float32).permute(2,0,1)
im_tensor = F.interpolate(torch.unsqueeze(im_tensor,0), size=model_input_size, mode='bilinear')
image = torch.divide(im_tensor,255.0)
image = normalize(image,[0.5,0.5,0.5],[1.0,1.0,1.0])
return image
def postprocess_image(result: torch.Tensor, im_size: list)-> np.ndarray:
result = torch.squeeze(F.interpolate(result, size=im_size, mode='bilinear') ,0)
ma = torch.max(result)
mi = torch.min(result)
result = (result-mi)/(ma-mi)
im_array = (result*255).permute(1,2,0).cpu().data.numpy().astype(np.uint8)
im_array = np.squeeze(im_array)
return im_array
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)
image_path = "https://farm5.staticflickr.com/4007/4322154488_997e69e4cf_z.jpg"
orig_im = io.imread(image_path)
orig_im_size = orig_im.shape[0:2]
image = preprocess_image(orig_im, model_input_size).to(device)
result=model(image)
result_image = postprocess_image(result[0][0], orig_im_size)
pil_mask_im = Image.fromarray(result_image)
orig_image = Image.open(image_path)
no_bg_image = orig_image.copy()
no_bg_image.putalpha(pil_mask_im)
📚 详细文档
模型描述
训练数据
Bria - RMBG模型使用了超过12000张高质量、高分辨率、手动标注(像素级精度)且完全授权的图像进行训练。我们的基准数据集涵盖了均衡的性别、种族和不同类型残疾的人群。为了清晰展示,我们按不同类别提供了数据分布情况,体现了模型的通用性。
图像分布
类别 |
分布比例 |
仅物体 |
45.11% |
人与物体/动物 |
25.24% |
仅人 |
17.35% |
人/物体/动物与文本 |
8.52% |
仅文本 |
2.52% |
仅动物 |
1.89% |
类别 |
分布比例 |
逼真图像 |
87.70% |
非逼真图像 |
12.30% |
类别 |
分布比例 |
非纯色背景 |
52.05% |
纯色背景 |
47.95% |
类别 |
分布比例 |
单个主要前景物体 |
51.42% |
前景多个物体 |
48.58% |
定性评估

架构
RMBG v1.4基于IS - Net开发,并结合了独特的训练方案和专有数据集。这些改进显著提高了模型在各种图像处理场景中的准确性和有效性。
📄 许可证
本模型遵循bria - rmbg - 1.4许可证。该模型以知识共享许可证发布供非商业使用,商业使用需与BRIA签订商业协议。购买商业许可证请点击此处。