🚀 BRIA背景去除v1.4模型卡片
BRIA背景去除v1.4模型是一款先進的背景去除模型,能夠在多種類別和圖像類型中,高效地將前景與背景分離。該模型在精心挑選的數據集上進行訓練,涵蓋通用庫存圖像、電子商務、遊戲和廣告內容等,適用於企業級大規模內容創作的商業場景。其準確性、效率和通用性可與當前領先的開源模型相媲美,尤其適用於對內容安全、合法授權數據集和偏差緩解有較高要求的場景。
此模型由BRIA AI開發,以開源形式提供非商業用途。若需購買商業許可證,只需點擊此處。
點擊此處查看演示
注意:新版RMBG已發佈!查看RMBG - 2.0
加入我們的Discord社區,獲取更多信息、教程、工具,並與其他用戶交流!

✨ 主要特性
- 基於精心挑選的數據集訓練,涵蓋多種圖像類型,適用於商業內容創作。
- 準確性、效率和通用性高,可與領先的開源模型競爭。
- 適用於對內容安全、合法授權數據集和偏差緩解要求高的場景。
📦 安裝指南
pip install -qr https://huggingface.co/briaai/RMBG-1.4/resolve/main/requirements.txt
💻 使用示例
基礎用法
from transformers import pipeline
image_path = "https://farm5.staticflickr.com/4007/4322154488_997e69e4cf_z.jpg"
pipe = pipeline("image-segmentation", model="briaai/RMBG-1.4", trust_remote_code=True)
pillow_mask = pipe(image_path, return_mask = True)
pillow_image = pipe(image_path)
高級用法
from transformers import AutoModelForImageSegmentation
from torchvision.transforms.functional import normalize
model = AutoModelForImageSegmentation.from_pretrained("briaai/RMBG-1.4",trust_remote_code=True)
def preprocess_image(im: np.ndarray, model_input_size: list) -> torch.Tensor:
if len(im.shape) < 3:
im = im[:, :, np.newaxis]
im_tensor = torch.tensor(im, dtype=torch.float32).permute(2,0,1)
im_tensor = F.interpolate(torch.unsqueeze(im_tensor,0), size=model_input_size, mode='bilinear')
image = torch.divide(im_tensor,255.0)
image = normalize(image,[0.5,0.5,0.5],[1.0,1.0,1.0])
return image
def postprocess_image(result: torch.Tensor, im_size: list)-> np.ndarray:
result = torch.squeeze(F.interpolate(result, size=im_size, mode='bilinear') ,0)
ma = torch.max(result)
mi = torch.min(result)
result = (result-mi)/(ma-mi)
im_array = (result*255).permute(1,2,0).cpu().data.numpy().astype(np.uint8)
im_array = np.squeeze(im_array)
return im_array
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)
image_path = "https://farm5.staticflickr.com/4007/4322154488_997e69e4cf_z.jpg"
orig_im = io.imread(image_path)
orig_im_size = orig_im.shape[0:2]
image = preprocess_image(orig_im, model_input_size).to(device)
result=model(image)
result_image = postprocess_image(result[0][0], orig_im_size)
pil_mask_im = Image.fromarray(result_image)
orig_image = Image.open(image_path)
no_bg_image = orig_image.copy()
no_bg_image.putalpha(pil_mask_im)
📚 詳細文檔
模型描述
訓練數據
Bria - RMBG模型使用了超過12000張高質量、高分辨率、手動標註(像素級精度)且完全授權的圖像進行訓練。我們的基準數據集涵蓋了均衡的性別、種族和不同類型殘疾的人群。為了清晰展示,我們按不同類別提供了數據分佈情況,體現了模型的通用性。
圖像分佈
類別 |
分佈比例 |
僅物體 |
45.11% |
人與物體/動物 |
25.24% |
僅人 |
17.35% |
人/物體/動物與文本 |
8.52% |
僅文本 |
2.52% |
僅動物 |
1.89% |
類別 |
分佈比例 |
逼真圖像 |
87.70% |
非逼真圖像 |
12.30% |
類別 |
分佈比例 |
非純色背景 |
52.05% |
純色背景 |
47.95% |
類別 |
分佈比例 |
單個主要前景物體 |
51.42% |
前景多個物體 |
48.58% |
定性評估

架構
RMBG v1.4基於IS - Net開發,並結合了獨特的訓練方案和專有數據集。這些改進顯著提高了模型在各種圖像處理場景中的準確性和有效性。
📄 許可證
本模型遵循bria - rmbg - 1.4許可證。該模型以知識共享許可證發佈供非商業使用,商業使用需與BRIA簽訂商業協議。購買商業許可證請點擊此處。