# 預訓練微調

Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50 是一個多語言序列到序列模型,支持50種語言的文本摘要和生成任務。
文本生成 Transformers
M
skripsi-summarization-1234
28.54k
0
Distilbert Base Multilingual Sentiment
Apache-2.0
基於 DistilBERT 的多語言情感分析模型,適用於多種語言的文本情感分類任務。
大型語言模型 Transformers
D
louaysboui
24
1
Multi2convai Quality De Bert
MIT
這是一個針對德語優化的Bert模型,專注於質量領域的文本分類任務。
文本分類 Transformers 德語
M
inovex
116
0
Imagecaptioning4
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途尚未明確說明。
大型語言模型 Transformers
I
eduardo-bolognini
82
1
Internvl2 5 8B MPO Hf
這是一個已發佈在模型中心的Transformers模型,具體功能和用途待補充。
大型語言模型 Transformers
I
OpenGVLab
528
0
Pi0fast Base
Apache-2.0
π0+FAST 是一種面向機器人技術的高效動作標記化方案,由Physical Intelligence設計,適用於視覺-語言-動作任務。
多模態融合 Safetensors
P
lerobot
1,372
12
Deepfake Detection Using ViT
Apache-2.0
使用微調Vision Transformer(ViT)檢測深度偽造圖像的二分類模型
圖像分類
D
ashish-001
354
1
Cross Encoder Binary Topic Classification
這是一個基於Transformer架構的交叉編碼器模型,主要用於文本排序任務。
文本嵌入 Transformers
C
enochlev
28
0
Depth Anything V2 Large
Depth Anything V2 是目前最強大的單目深度估計模型,基於大量合成和真實圖像訓練,提供精細的深度細節和高魯棒性。
3D視覺 英語
D
depth-anything
130.54k
94
Llama2 Time Series Forecasting 7.0
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途尚未明確說明。
大型語言模型 Transformers
L
Ankur87
80
1
Videomae Base Finetuned Kinetics Finetuned Dcsass Shoplifting Subset
基於VideoMAE架構的視頻分類模型,專為商店偷竊行為檢測微調
視頻處理 Transformers
V
Abdullah1
23
0
Sentence Flaubert Base
Apache-2.0
基於FlauBERT的法語句子嵌入模型,用於計算句子相似度
文本嵌入 法語
S
Lajavaness
1,846
3
Vit Xray Pneumonia Classification
Apache-2.0
基於預訓練模型微調的胸部X光圖像肺炎分類模型,能高效準確地識別肺炎與正常的胸部X光影像。
圖像分類 Transformers
V
lxyuan
860
4
Primarygleasonbert
Bio_ClinicalBERT是基於BERT架構的臨床文本處理模型,專門針對生物醫學和臨床領域的文本進行優化。
文本分類 Transformers
P
jkefeli
30
2
Wangchanberta QA Thaiqa Squad
基於wangchanberta-base-att-spm-uncased預訓練模型,使用thaiqa_squad數據集微調的泰語問答模型
問答系統 Transformers 其他
W
Thammarak
173
5
Codet5 Base Codexglue Sum Python
Bsd-3-clause
這是一個基於CodeT5-base架構,使用CodeXGLUE數據集Python部分微調的代碼摘要生成模型。
文本生成 Transformers
C
Salesforce
58
8
Randeng Pegasus 523M Summary Chinese V1
專長於處理文本摘要任務的中文PEGASUS-large模型,基於多箇中文摘要數據集微調
文本生成 Transformers 中文
R
IDEA-CCNL
95
5
Roberta Base Cold
基於hfl/chinese-roberta-wwm-ext模型在COLDataset上微調的中文冒犯性語言檢測模型
文本分類 Transformers 中文
R
thu-coai
410
39
Codebert Javascript
基於microsoft/codebert-base-mlm在JavaScript代碼上微調的掩碼語言模型,主要用於代碼評估
大型語言模型 Transformers
C
neulab
19.61k
15
Randeng Pegasus 523M Summary Chinese
專精於文本摘要任務的中文PEGASUS-large模型,在多箇中文摘要數據集上微調得到
文本生成 Transformers 中文
R
IDEA-CCNL
9,549
58
Rubert Base Cased Sentiment Rusentiment
基於DeepPavlov/rubert-base-cased-conversational架構,在RuSentiment數據集上訓練的情感分析模型,可識別俄語文本中的中性、積極和消極情緒。
文本分類 其他
R
blanchefort
80.75k
12
Camembert2camembert Shared Finetuned French Summarization
該模型是基於CamemBERT架構的法語文本摘要模型,專門針對法語新聞摘要任務進行微調。
文本生成 Transformers 法語
C
mrm8488
540
14
Sbert Base Chinese Nli
Apache-2.0
基於UER-py預訓練的中文句子嵌入模型,用於計算句子相似度
文本嵌入 Transformers 中文
S
uer
8,054
124
Parsbert Fa Sentiment Twitter
基於約60萬條波斯語推文微調的情感分析模型,用於分析波斯語文本的情感傾向。
文本分類 Transformers
P
nimaafshar
62
1
Tapex Large Finetuned Sqa
Apache-2.0
TAPEX-large是基於表格數據預訓練的大型語言模型,專門針對表格問答任務進行了微調。它通過神經SQL執行器實現表格理解,能夠回答關於表格內容的自然語言問題。
問答系統 Transformers 英語
T
nielsr
30
0
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98
Tapex Large Finetuned Wikisql
Apache-2.0
TAPEX-large是基於WikiSQL數據集微調的表格問答模型,能夠理解自然語言問題並基於表格數據生成SQL查詢或直接回答。
問答系統 Transformers 英語
T
nielsr
27
0
Codet5 Small Code Summarization Python
Apache-2.0
CodeT5-small是Salesforce開發的基於Transformer的代碼理解與生成模型,專門針對Python代碼轉文本任務進行了微調。
文本生成 Transformers 支持多種語言
C
stmnk
38
2
Mbert Base Parsinlu Entailment
這是一個用於處理文本蘊涵問題的模型,支持波斯語和多語言環境下的邏輯關係判斷。
文本分類 其他
M
persiannlp
39
2
Bart R3f
基於BART預訓練模型,應用R3F技術訓練的韓語對話摘要模型,參與2021年訓民正音韓語語音·自然語言人工智能大賽
文本生成 Transformers 韓語
B
alaggung
135
6
Mbart Large 50 Many To One Mmt
基於mBART-large-50微調的多語言機器翻譯模型,支持50種語言到英語的翻譯任務
機器翻譯 支持多種語言
M
facebook
28.70k
66
Wangchanberta Base Att Spm Uncased Finetune Qa
基於WangchanBERTa模型微調的泰語問答系統,使用多個泰語QA數據集進行訓練
問答系統 Transformers
W
cstorm125
30
0
Bert Base Arabic Camelbert Mix Ner
Apache-2.0
基於CAMeLBERT Mix微調的阿拉伯語命名實體識別模型,支持現代標準阿拉伯語、方言和古典阿拉伯語的實體識別
序列標註 Transformers 阿拉伯語
B
CAMeL-Lab
24.24k
13
Reasonbert RoBERTa
基於RoBERTa架構的預訓練模型,針對問答等任務進行了優化,具備更強的推理能力。
大型語言模型 Transformers
R
Anonymous
13
0
Bert Base Arabic Camelbert Mix Sentiment
Apache-2.0
基於CAMeLBERT混合模型微調的情感分析模型,支持阿拉伯語文本情感分類
文本分類 Transformers 阿拉伯語
B
CAMeL-Lab
108.27k
6
Danish Bert Botxo Ner Dane
這是一個針對丹麥語預訓練的BERT模型,由Certainly(前BotXO)開發,後經Malte Højmark-Bertelsen在DaNE數據集上針對命名實體識別任務進行微調。
序列標註 其他
D
Maltehb
594
4
T5 En Vi Small
面向英越翻譯的文本到文本遷移轉換器預訓練模型,專注於英語到越南語的機器翻譯任務。
機器翻譯
T
NlpHUST
60
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase