🚀 BRIA背景去除v1.4模型卡片
BRIA背景去除v1.4模型是一款先進的背景去除模型,旨在有效分離各種類別和圖像類型中的前景與背景。該模型在精心挑選的數據集上進行訓練,涵蓋通用庫存圖像、電子商務、遊戲和廣告內容,適用於大規模企業內容創作的商業用例。其準確性、效率和通用性目前可與領先的開源模型相媲美,尤其適用於對內容安全、合法授權數據集和偏差緩解有較高要求的場景。
此模型由BRIA AI開發,作為開源模型供非商業用途使用。
點擊此處查看演示

🚀 快速開始
你可以按照以下步驟快速使用BRIA背景去除v1.4模型。
✨ 主要特性
- 高精度:在多種圖像類型和場景下都能實現準確的背景去除。
- 通用性強:經過精心挑選的數據集訓練,適用於多種商業用例。
- 合法合規:使用完全授權的數據集進行訓練,確保內容安全和合法合規。
📦 安裝指南
使用以下命令安裝所需依賴:
pip install -qr https://huggingface.co/briaai/RMBG-1.4/resolve/main/requirements.txt
💻 使用示例
基礎用法
可以通過加載管道的方式使用模型:
from transformers import pipeline
image_path = "https://farm5.staticflickr.com/4007/4322154488_997e69e4cf_z.jpg"
pipe = pipeline("image-segmentation", model="briaai/RMBG-1.4", trust_remote_code=True)
pillow_mask = pipe(image_path, return_mask = True)
pillow_image = pipe(image_path)
高級用法
也可以直接加載模型進行使用:
from transformers import AutoModelForImageSegmentation
from torchvision.transforms.functional import normalize
import torch
import numpy as np
from PIL import Image
import io
import torch.nn.functional as F
model = AutoModelForImageSegmentation.from_pretrained("briaai/RMBG-1.4",trust_remote_code=True)
def preprocess_image(im: np.ndarray, model_input_size: list) -> torch.Tensor:
if len(im.shape) < 3:
im = im[:, :, np.newaxis]
im_tensor = torch.tensor(im, dtype=torch.float32).permute(2,0,1)
im_tensor = F.interpolate(torch.unsqueeze(im_tensor,0), size=model_input_size, mode='bilinear')
image = torch.divide(im_tensor,255.0)
image = normalize(image,[0.5,0.5,0.5],[1.0,1.0,1.0])
return image
def postprocess_image(result: torch.Tensor, im_size: list)-> np.ndarray:
result = torch.squeeze(F.interpolate(result, size=im_size, mode='bilinear') ,0)
ma = torch.max(result)
mi = torch.min(result)
result = (result-mi)/(ma-mi)
im_array = (result*255).permute(1,2,0).cpu().data.numpy().astype(np.uint8)
im_array = np.squeeze(im_array)
return im_array
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)
image_path = "https://farm5.staticflickr.com/4007/4322154488_997e69e4cf_z.jpg"
orig_im = io.imread(image_path)
orig_im_size = orig_im.shape[0:2]
image = preprocess_image(orig_im, model_input_size).to(device)
result=model(image)
result_image = postprocess_image(result[0][0], orig_im_size)
pil_im = Image.fromarray(result_image)
no_bg_image = Image.new("RGBA", pil_im.size, (0,0,0,0))
orig_image = Image.open(image_path)
no_bg_image.paste(orig_image, mask=pil_im)
📚 詳細文檔
模型描述
屬性 |
詳情 |
開發方 |
BRIA AI |
模型類型 |
背景去除 |
許可證 |
bria-rmbg-1.4。該模型根據知識共享許可協議發佈,供非商業用途使用。商業用途需與BRIA達成商業協議,聯繫我們獲取更多信息。 |
模型說明 |
BRIA RMBG 1.4是一個顯著性分割模型,僅在專業級數據集上進行訓練。 |
更多信息資源 |
BRIA AI |
訓練數據
Bria-RMBG模型使用了超過12,000張高質量、高分辨率、手動標註(像素級精度)、完全授權的圖像進行訓練。我們的基準測試涵蓋了平衡的性別、種族和不同類型殘疾的人群。為了清晰起見,我們按不同類別提供了數據分佈,展示了模型的通用性。
圖像分佈
類別 |
分佈比例 |
僅物體 |
45.11% |
人與物體/動物 |
25.24% |
僅人 |
17.35% |
人/物體/動物與文字 |
8.52% |
僅文字 |
2.52% |
僅動物 |
1.89% |
類別 |
分佈比例 |
逼真圖像 |
87.70% |
非逼真圖像 |
12.30% |
類別 |
分佈比例 |
非純色背景 |
52.05% |
純色背景 |
47.95% |
類別 |
分佈比例 |
單個主要前景物體 |
51.42% |
前景中有多個物體 |
48.58% |
定性評估

架構
RMBG v1.4基於IS-Net開發,並結合了我們獨特的訓練方案和專有數據集。這些改進顯著提高了模型在各種圖像處理場景中的準確性和有效性。
📄 許可證
該模型遵循bria-rmbg-1.4許可證。模型根據知識共享許可協議發佈,供非商業用途使用。商業用途需與BRIA達成商業協議,聯繫我們獲取更多信息。