
連接全球AI模型 - 賦能下一代應用
從通用到專業 - 一站式AI模型平台
篩選
分類
不限大型語言模型圖像生成語音識別文本嵌入圖像分類文本分類機器翻譯文本生成圖像圖像生成文本序列標註文本生成語音合成問答系統圖像分割音頻分類目標檢測文本生成視頻文字識別視頻處理3D視覺多模態融合分子模型視頻生成文本對話系統蛋白質模型音頻生成氣候模型文本生成音頻圖像增強物理學模型說話人處理知識圖譜人臉相關音頻生成文本姿態估計聲音分離多模態對齊音頻增強材料科學
框架
不限TransformersPyTorchSafetensorsTensorBoard其他
開源許可
不限Apache-2.0MITCCOpenrailGpl-3.0Bsd-3-clause其他
語言
不限英語中文西班牙語阿拉伯語法語德語日語韓語其他
有10018個模型符合條件
Nsfw Image Detection
Apache-2.0
基於ViT架構的NSFW圖像分類模型,通過監督學習在ImageNet-21k數據集上預訓練,並在80,000張圖像上微調,用於區分正常和NSFW內容。
圖像分類
Transformers

N
Falconsai
82.4M
588
Fairface Age Image Detection
Apache-2.0
基於Vision Transformer架構的圖像分類模型,在ImageNet-21k數據集上預訓練,適用於多類別圖像分類任務
圖像分類
Transformers

F
dima806
76.6M
10
Clip Vit Large Patch14
CLIP是由OpenAI開發的視覺-語言模型,通過對比學習將圖像和文本映射到共享的嵌入空間,支持零樣本圖像分類
圖像生成文本
C
openai
44.7M
1,710
Chronos T5 Small
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為token序列進行訓練,適用於概率預測任務。
氣候模型
Transformers

C
amazon
22.8M
66
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Clipseg Rd64 Refined
Apache-2.0
CLIPSeg是一種基於文本與圖像提示的圖像分割模型,支持零樣本和單樣本圖像分割任務。
圖像分割
Transformers

C
CIDAS
10.0M
122
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Vit Face Expression
Apache-2.0
基於視覺變換器(ViT)微調的面部情緒識別模型,支持7種表情分類
人臉相關
Transformers

V
trpakov
9.2M
66
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列基於T5架構的預訓練時間序列基礎模型,通過創新分塊編碼和直接多步預測實現高效時序預測
氣候模型
Safetensors
C
autogluon
6.2M
13
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Siglip So400m Patch14 384
Apache-2.0
SigLIP是基於WebLi數據集預訓練的視覺語言模型,採用改進的sigmoid損失函數,優化了圖像-文本匹配任務。
圖像生成文本
Transformers

S
google
6.1M
526
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
5.3M
431
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基於DistilBERT-base-uncased在SST-2情感分析數據集上微調的文本分類模型,準確率91.3%
文本分類 英語
D
distilbert
5.2M
746
Dinov2 Small
Apache-2.0
基於DINOv2方法訓練的小尺寸視覺Transformer模型,通過自監督學習提取圖像特徵
圖像分類
Transformers

D
facebook
5.0M
31
Vit Base Patch16 224
Apache-2.0
基於ImageNet-21k預訓練和ImageNet微調的視覺變換器模型,用於圖像分類任務
圖像分類
V
google
4.8M
775
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列預訓練的時間序列預測模型,支持零樣本預測,精度高且推理速度快。
氣候模型
C
autogluon
4.7M
22
Whisper Large V3
Apache-2.0
Whisper是由OpenAI提出的先進自動語音識別(ASR)和語音翻譯模型,在超過500萬小時的標註數據上訓練,具有強大的跨數據集和跨領域泛化能力。
語音識別 支持多種語言
W
openai
4.6M
4,321
Whisper Large V3 Turbo
MIT
Whisper是由OpenAI開發的最先進的自動語音識別(ASR)和語音翻譯模型,經過超過500萬小時標記數據的訓練,在零樣本設置下展現出強大的泛化能力。
語音識別
Transformers 支持多種語言

W
openai
4.0M
2,317
Bart Large Cnn
MIT
基於英語語料預訓練的BART模型,專門針對CNN每日郵報數據集進行微調,適用於文本摘要任務
文本生成 英語
B
facebook
3.8M
1,364
Fashion Clip
MIT
FashionCLIP是基於CLIP開發的視覺語言模型,專門針對時尚領域進行微調,能夠生成通用產品表徵。
文本生成圖像
Transformers 英語

F
patrickjohncyh
3.8M
222
Jina Embeddings V3
Jina Embeddings V3 是一個多語言句子嵌入模型,支持超過100種語言,專注於句子相似度和特徵提取任務。
文本嵌入
Transformers 支持多種語言

J
jinaai
3.7M
911
Stable Diffusion V1 5
Openrail
穩定擴散是一種潛在的文本到圖像擴散模型,能夠根據任何文本輸入生成逼真的圖像。
圖像生成
S
stable-diffusion-v1-5
3.7M
518
Bart Large Mnli
MIT
基於BART-large架構,在MultiNLI數據集上微調的零樣本分類模型
大型語言模型
B
facebook
3.7M
1,364
T5 Small
Apache-2.0
T5-Small是谷歌開發的6000萬參數文本轉換模型,採用統一文本到文本框架處理多種NLP任務
大型語言模型 支持多種語言
T
google-t5
3.7M
450
Flan T5 Base
Apache-2.0
FLAN-T5是基於T5模型通過指令微調優化的語言模型,支持多語言任務處理,在相同參數量下性能優於原T5模型。
大型語言模型 支持多種語言
F
google
3.3M
862
Albert Base V2
Apache-2.0
ALBERT是基於Transformer架構的輕量級預訓練語言模型,通過參數共享機制減少內存佔用,適用於英語文本處理任務。
大型語言模型 英語
A
albert
3.1M
121
Distilbert Base Multilingual Cased
Apache-2.0
DistilBERT 是 BERT 基礎多語言模型的蒸餾版本,保留了 BERT 的 97% 性能但參數更少、速度更快。支持 104 種語言,適用於多種自然語言處理任務。
大型語言模型
Transformers 支持多種語言

D
distilbert
2.8M
187
Distilgpt2
Apache-2.0
DistilGPT2是GPT-2的輕量級蒸餾版本,擁有8200萬參數,保留了GPT-2的核心文本生成能力,同時體積更小、速度更快。
大型語言模型 英語
D
distilbert
2.7M
527
Xlm Roberta Base Language Detection
MIT
基於XLM-RoBERTa的多語言檢測模型,支持20種語言的文本分類
文本分類
Transformers 支持多種語言

X
papluca
2.7M
333
Table Transformer Detection
MIT
基於DETR架構的表格檢測模型,專門用於從非結構化文檔中提取表格
目標檢測
Transformers

T
microsoft
2.6M
349
Blip Image Captioning Large
Bsd-3-clause
BLIP是一個統一的視覺-語言預訓練框架,擅長圖像描述生成任務,支持條件式和無條件式圖像描述生成。
圖像生成文本
Transformers

B
Salesforce
2.5M
1,312
Ms Marco MiniLM L6 V2
Apache-2.0
基於MS Marco段落排序任務訓練的交叉編碼器模型,用於信息檢索中的查詢-段落相關性評分
文本嵌入 英語
M
cross-encoder
2.5M
86
Mms 300m 1130 Forced Aligner
基於Hugging Face預訓練模型的文本與音頻強制對齊工具,支持多種語言,內存效率高
語音識別
Transformers 支持多種語言

M
MahmoudAshraf
2.5M
50
Llama 3.2 1B Instruct
Llama 3.2是Meta開發的多語言大語言模型系列,包含1B和3B規模的預訓練及指令調優生成模型,針對多語言對話場景優化,支持智能檢索和摘要任務。
大型語言模型
Transformers 支持多種語言

L
meta-llama
2.4M
901
Stable Diffusion Xl Base 1.0
SDXL 1.0是基於擴散的文本生成圖像模型,採用專家集成的潛在擴散流程,支持高分辨率圖像生成
圖像生成
S
stabilityai
2.4M
6,545
Qwen2.5 0.5B Instruct
Apache-2.0
專為Gensyn強化學習群設計的0.5B參數指令微調模型,支持本地微調訓練
大型語言模型
Transformers 英語

Q
Gensyn
2.4M
5
Vit Base Patch16 224 In21k
Apache-2.0
基於ImageNet-21k數據集預訓練的視覺Transformer模型,用於圖像分類任務。
圖像分類
V
google
2.2M
323
Indonesian Roberta Base Posp Tagger
MIT
這是一個基於印尼語RoBERTa模型微調的詞性標註模型,在indonlu數據集上訓練,用於印尼語文本的詞性標註任務。
序列標註
Transformers 其他

I
w11wo
2.2M
7