模型概述
模型特點
模型能力
使用案例
🚀 BiRefNet
BiRefNet是用於高分辨率二分圖像分割的模型,可應用於背景去除、掩碼生成等多個領域,在多個相關任務中取得了SOTA性能。
🚀 快速開始
0. 安裝依賴包
pip install -qr https://raw.githubusercontent.com/ZhengPeng7/BiRefNet/main/requirements.txt
1. 加載BiRefNet
使用HuggingFace的代碼和權重
僅使用HuggingFace上的權重,優點是無需手動下載BiRefNet代碼;缺點是HuggingFace上的代碼可能不是最新版本(我會盡量保持其為最新版本)。
# 加載帶有權重的BiRefNet
from transformers import AutoModelForImageSegmentation
birefnet = AutoModelForImageSegmentation.from_pretrained('ZhengPeng7/BiRefNet_HR', trust_remote_code=True)
使用GitHub的代碼和HuggingFace的權重
僅使用HuggingFace上的權重,優點是代碼始終是最新的;缺點是需要從我的GitHub克隆BiRefNet倉庫。
# 下載代碼
git clone https://github.com/ZhengPeng7/BiRefNet.git
cd BiRefNet
# 本地使用代碼
from models.birefnet import BiRefNet
# 從Hugging Face Models加載權重
birefnet = BiRefNet.from_pretrained('ZhengPeng7/BiRefNet_HR')
使用GitHub的代碼和本地的權重
本地同時使用代碼和權重。
# 本地使用代碼和權重
import torch
from utils import check_state_dict
birefnet = BiRefNet(bb_pretrained=False)
state_dict = torch.load(PATH_TO_WEIGHT, map_location='cpu')
state_dict = check_state_dict(state_dict)
birefnet.load_state_dict(state_dict)
使用加載好的BiRefNet進行推理
# 導入庫
from PIL import Image
import matplotlib.pyplot as plt
import torch
from torchvision import transforms
from models.birefnet import BiRefNet
birefnet = ... # -- 應使用上述代碼加載BiRefNet,任意一種方式均可
torch.set_float32_matmul_precision(['high', 'highest'][0])
birefnet.to('cuda')
birefnet.eval()
birefnet.half()
def extract_object(birefnet, imagepath):
# 數據設置
image_size = (2048, 2048)
transform_image = transforms.Compose([
transforms.Resize(image_size),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
image = Image.open(imagepath)
input_images = transform_image(image).unsqueeze(0).to('cuda').half()
# 預測
with torch.no_grad():
preds = birefnet(input_images)[-1].sigmoid().cpu()
pred = preds[0].squeeze()
pred_pil = transforms.ToPILImage()(pred)
mask = pred_pil.resize(image.size)
image.putalpha(mask)
return image, mask
# 可視化
plt.axis("off")
plt.imshow(extract_object(birefnet, imagepath='PATH-TO-YOUR_IMAGE.jpg')[0])
plt.show()
2. 本地使用推理端點
你可能需要自己點擊deploy並設置端點,這會產生一些費用。
import requests
import base64
from io import BytesIO
from PIL import Image
YOUR_HF_TOKEN = 'xxx'
API_URL = "xxx"
headers = {
"Authorization": "Bearer {}".format(YOUR_HF_TOKEN)
}
def base64_to_bytes(base64_string):
# 如果存在數據URI前綴,則移除
if "data:image" in base64_string:
base64_string = base64_string.split(",")[1]
# 將Base64字符串解碼為字節
image_bytes = base64.b64decode(base64_string)
return image_bytes
def bytes_to_base64(image_bytes):
# 創建一個BytesIO對象來處理圖像數據
image_stream = BytesIO(image_bytes)
# 使用Pillow (PIL)打開圖像
image = Image.open(image_stream)
return image
def query(payload):
response = requests.post(API_URL, headers=headers, json=payload)
return response.json()
output = query({
"inputs": "https://hips.hearstapps.com/hmg-prod/images/gettyimages-1229892983-square.jpg",
"parameters": {}
})
output_image = bytes_to_base64(base64_to_bytes(output))
output_image
✨ 主要特性
- 多任務適用性:可用於背景去除、掩碼生成、二分圖像分割、偽裝目標檢測、顯著目標檢測等多個任務。
- 高分辨率推理:該模型使用
2048x2048
的圖像進行訓練,以實現更高分辨率的推理。 - SOTA性能:在三個任務(DIS、HRSOD和COD)上取得了SOTA性能。
📦 安裝指南
pip install -qr https://raw.githubusercontent.com/ZhengPeng7/BiRefNet/main/requirements.txt
💻 使用示例
基礎用法
# 加載帶有權重的BiRefNet
from transformers import AutoModelForImageSegmentation
birefnet = AutoModelForImageSegmentation.from_pretrained('ZhengPeng7/BiRefNet_HR', trust_remote_code=True)
高級用法
# 本地使用代碼和權重
import torch
from utils import check_state_dict
birefnet = BiRefNet(bb_pretrained=False)
state_dict = torch.load(PATH_TO_WEIGHT, map_location='cpu')
state_dict = check_state_dict(state_dict)
birefnet.load_state_dict(state_dict)
📚 詳細文檔
模型性能
所有測試均在FP16模式下進行。 | 數據集 | 方法 | 分辨率 | maxFm | wFmeasure | MAE | Smeasure | meanEm | HCE | maxEm | meanFm | adpEm | adpFm | mBA | maxBIoU | meanBIoU | | :------: | :------: | :------: | :------: | :------: | :------: | :------: | :------: | :------: | :------: | :------: | :------: | :------: | :------: | :------: | :------: | | DIS-VD | BiRefNet_HR-general-epoch_130 | 2048x2048 | .925 | .894 | .026 | .927 | .952 | 811 | .960 | .909 | .944 | .888 | .828 | .837 | .817 | | DIS-VD | BiRefNet_HR-general-epoch_130 | 1024x1024 | .876 | .840 | .041 | .893 | .913 | 1348 | .926 | .860 | .930 | .857 | .765 | .769 | .742 | | DIS-VD | BiRefNet-general-epoch_244 | 2048x2048 | .888 | .858 | .037 | .898 | .934 | 811 | .941 | .878 | .927 | .862 | .802 | .790 | .776 | | DIS-VD | BiRefNet-general-epoch_244 | 1024x1024 | .908 | .877 | .034 | .912 | .943 | 1128 | .953 | .894 | .944 | .881 | .796 | .812 | .789 |
模型訓練和驗證
這個用於標準二分圖像分割(DIS)的BiRefNet在DIS-TR上進行訓練,並在DIS-TEs和DIS-VD上進行驗證。
論文信息
本文提出的BiRefNet的權重包含在本倉庫中,該論文為 "Bilateral Reference for High-Resolution Dichotomous Image Segmentation" (CAAI AIR 2024)。
作者信息
相關鏈接
示例圖片
DIS-Sample_1 | DIS-Sample_2 |
---|---|
在線演示
🔧 技術細節
本倉庫包含了論文中提出的BiRefNet的權重,該模型在三個任務(DIS、HRSOD和COD)上取得了SOTA性能。模型使用2048x2048
的圖像進行訓練,以實現更高分辨率的推理。
📄 許可證
本項目採用MIT許可證。
致謝
非常感謝@freepik為訓練此模型提供的GPU資源支持!
引用
@article{zheng2024birefnet,
title={Bilateral Reference for High-Resolution Dichotomous Image Segmentation},
author={Zheng, Peng and Gao, Dehong and Fan, Deng-Ping and Liu, Li and Laaksonen, Jorma and Ouyang, Wanli and Sebe, Nicu},
journal={CAAI Artificial Intelligence Research},
volume = {3},
pages = {9150038},
year={2024}
}











