連接全球AI模型 - 賦能下一代應用
從通用到專業 - 一站式AI模型平台
熱門
最新
點贊高
篩選

10018個模型符合條件

Nsfw Image Detection
Apache-2.0
基於ViT架構的NSFW圖像分類模型,通過監督學習在ImageNet-21k數據集上預訓練,並在80,000張圖像上微調,用於區分正常和NSFW內容。
圖像分類 Transformers
N
Falconsai
82.4M
588
Fairface Age Image Detection
Apache-2.0
基於Vision Transformer架構的圖像分類模型,在ImageNet-21k數據集上預訓練,適用於多類別圖像分類任務
圖像分類 Transformers
F
dima806
76.6M
10
Clip Vit Large Patch14
CLIP是由OpenAI開發的視覺-語言模型,通過對比學習將圖像和文本映射到共享的嵌入空間,支持零樣本圖像分類
圖像生成文本
C
openai
44.7M
1,710
Chronos T5 Small
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為token序列進行訓練,適用於概率預測任務。
氣候模型 Transformers
C
amazon
22.8M
66
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Clipseg Rd64 Refined
Apache-2.0
CLIPSeg是一種基於文本與圖像提示的圖像分割模型,支持零樣本和單樣本圖像分割任務。
圖像分割 Transformers
C
CIDAS
10.0M
122
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Vit Face Expression
Apache-2.0
基於視覺變換器(ViT)微調的面部情緒識別模型,支持7種表情分類
人臉相關 Transformers
V
trpakov
9.2M
66
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列基於T5架構的預訓練時間序列基礎模型,通過創新分塊編碼和直接多步預測實現高效時序預測
氣候模型 Safetensors
C
autogluon
6.2M
13
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型 Transformers
1
unslothai
6.2M
1
Siglip So400m Patch14 384
Apache-2.0
SigLIP是基於WebLi數據集預訓練的視覺語言模型,採用改進的sigmoid損失函數,優化了圖像-文本匹配任務。
圖像生成文本 Transformers
S
google
6.1M
526
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型 Transformers 支持多種語言
L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
5.3M
431
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基於DistilBERT-base-uncased在SST-2情感分析數據集上微調的文本分類模型,準確率91.3%
文本分類 英語
D
distilbert
5.2M
746
Dinov2 Small
Apache-2.0
基於DINOv2方法訓練的小尺寸視覺Transformer模型,通過自監督學習提取圖像特徵
圖像分類 Transformers
D
facebook
5.0M
31
Vit Base Patch16 224
Apache-2.0
基於ImageNet-21k預訓練和ImageNet微調的視覺變換器模型,用於圖像分類任務
圖像分類
V
google
4.8M
775
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列預訓練的時間序列預測模型,支持零樣本預測,精度高且推理速度快。
氣候模型
C
autogluon
4.7M
22
Whisper Large V3
Apache-2.0
Whisper是由OpenAI提出的先進自動語音識別(ASR)和語音翻譯模型,在超過500萬小時的標註數據上訓練,具有強大的跨數據集和跨領域泛化能力。
語音識別 支持多種語言
W
openai
4.6M
4,321
Whisper Large V3 Turbo
MIT
Whisper是由OpenAI開發的最先進的自動語音識別(ASR)和語音翻譯模型,經過超過500萬小時標記數據的訓練,在零樣本設置下展現出強大的泛化能力。
語音識別 Transformers 支持多種語言
W
openai
4.0M
2,317
Bart Large Cnn
MIT
基於英語語料預訓練的BART模型,專門針對CNN每日郵報數據集進行微調,適用於文本摘要任務
文本生成 英語
B
facebook
3.8M
1,364
Fashion Clip
MIT
FashionCLIP是基於CLIP開發的視覺語言模型,專門針對時尚領域進行微調,能夠生成通用產品表徵。
文本生成圖像 Transformers 英語
F
patrickjohncyh
3.8M
222
Jina Embeddings V3
Jina Embeddings V3 是一個多語言句子嵌入模型,支持超過100種語言,專注於句子相似度和特徵提取任務。
文本嵌入 Transformers 支持多種語言
J
jinaai
3.7M
911
Stable Diffusion V1 5
Openrail
穩定擴散是一種潛在的文本到圖像擴散模型,能夠根據任何文本輸入生成逼真的圖像。
圖像生成
S
stable-diffusion-v1-5
3.7M
518
Bart Large Mnli
MIT
基於BART-large架構,在MultiNLI數據集上微調的零樣本分類模型
大型語言模型
B
facebook
3.7M
1,364
T5 Small
Apache-2.0
T5-Small是谷歌開發的6000萬參數文本轉換模型,採用統一文本到文本框架處理多種NLP任務
大型語言模型 支持多種語言
T
google-t5
3.7M
450
Flan T5 Base
Apache-2.0
FLAN-T5是基於T5模型通過指令微調優化的語言模型,支持多語言任務處理,在相同參數量下性能優於原T5模型。
大型語言模型 支持多種語言
F
google
3.3M
862
Albert Base V2
Apache-2.0
ALBERT是基於Transformer架構的輕量級預訓練語言模型,通過參數共享機制減少內存佔用,適用於英語文本處理任務。
大型語言模型 英語
A
albert
3.1M
121
Distilbert Base Multilingual Cased
Apache-2.0
DistilBERT 是 BERT 基礎多語言模型的蒸餾版本,保留了 BERT 的 97% 性能但參數更少、速度更快。支持 104 種語言,適用於多種自然語言處理任務。
大型語言模型 Transformers 支持多種語言
D
distilbert
2.8M
187
Distilgpt2
Apache-2.0
DistilGPT2是GPT-2的輕量級蒸餾版本,擁有8200萬參數,保留了GPT-2的核心文本生成能力,同時體積更小、速度更快。
大型語言模型 英語
D
distilbert
2.7M
527
Xlm Roberta Base Language Detection
MIT
基於XLM-RoBERTa的多語言檢測模型,支持20種語言的文本分類
文本分類 Transformers 支持多種語言
X
papluca
2.7M
333
Table Transformer Detection
MIT
基於DETR架構的表格檢測模型,專門用於從非結構化文檔中提取表格
目標檢測 Transformers
T
microsoft
2.6M
349
Blip Image Captioning Large
Bsd-3-clause
BLIP是一個統一的視覺-語言預訓練框架,擅長圖像描述生成任務,支持條件式和無條件式圖像描述生成。
圖像生成文本 Transformers
B
Salesforce
2.5M
1,312
Ms Marco MiniLM L6 V2
Apache-2.0
基於MS Marco段落排序任務訓練的交叉編碼器模型,用於信息檢索中的查詢-段落相關性評分
文本嵌入 英語
M
cross-encoder
2.5M
86
Mms 300m 1130 Forced Aligner
基於Hugging Face預訓練模型的文本與音頻強制對齊工具,支持多種語言,內存效率高
語音識別 Transformers 支持多種語言
M
MahmoudAshraf
2.5M
50
Llama 3.2 1B Instruct
Llama 3.2是Meta開發的多語言大語言模型系列,包含1B和3B規模的預訓練及指令調優生成模型,針對多語言對話場景優化,支持智能檢索和摘要任務。
大型語言模型 Transformers 支持多種語言
L
meta-llama
2.4M
901
Stable Diffusion Xl Base 1.0
SDXL 1.0是基於擴散的文本生成圖像模型,採用專家集成的潛在擴散流程,支持高分辨率圖像生成
圖像生成
S
stabilityai
2.4M
6,545
Qwen2.5 0.5B Instruct
Apache-2.0
專為Gensyn強化學習群設計的0.5B參數指令微調模型,支持本地微調訓練
大型語言模型 Transformers 英語
Q
Gensyn
2.4M
5
Vit Base Patch16 224 In21k
Apache-2.0
基於ImageNet-21k數據集預訓練的視覺Transformer模型,用於圖像分類任務。
圖像分類
V
google
2.2M
323
Indonesian Roberta Base Posp Tagger
MIT
這是一個基於印尼語RoBERTa模型微調的詞性標註模型,在indonlu數據集上訓練,用於印尼語文本的詞性標註任務。
序列標註 Transformers 其他
I
w11wo
2.2M
7
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase