Sapiens Pretrain 0.3b
Model Overview
Sapiens-0.3B是一個高分辨率視覺Transformer模型,經過3億張1024x1024分辨率人類圖像的預訓練,擅長處理以人為中心的視覺任務,並在真實場景中展現出卓越的泛化能力。
Model Features
高分辨率處理能力
原生支持1024x1024高分辨率圖像處理,無需降採樣即可直接處理高清圖像。
人類中心化預訓練
基於3億張人類圖像進行預訓練,特別適合以人為中心的視覺任務。
卓越的泛化性能
即使在標註數據稀缺或完全合成的情況下,也能對真實數據展現出優秀的泛化能力。
高效架構設計
採用16x16分塊策略和1024維嵌入,在保持性能的同時優化計算效率。
Model Capabilities
高分辨率圖像特徵提取
人類圖像分析
視覺表示學習
遷移學習基礎模型
Use Cases
計算機視覺
人體姿態估計
利用預訓練特徵進行人體關鍵點檢測和姿態分析。
在有限標註數據下仍能獲得良好性能
人物重識別
用於跨攝像頭的人物特徵提取和匹配任務。
高分辨率處理能力提升識別準確率
虛擬現實
數字人建模
作為基礎模型用於生成逼真的數字人類形象。
從合成數據到真實場景的良好遷移能力
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98