Turn Detection Cocalai Vllm
Apache-2.0
本模型是基於Qwen3-0.6B微調的對話輪次檢測模型,採用Unsloth和Huggingface TRL庫加速訓練,在對話輪次檢測任務中準確率達96.22%。
大型語言模型
Transformers 英語

T
anonymguy
351
1
Ag News Distilbert
Apache-2.0
基於distilbert-base-uncased微調的文本分類模型,在AG News數據集上訓練,準確率達89.06%
文本分類
Transformers

A
huggingfacecoin
31
1
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct 是一個基於 Qwen2.5 架構的 7B 參數規模的代碼生成模型,專注於指令微調,適用於代碼生成和編程輔助任務。
大型語言模型
PyTorch
A
averntech
87
1
Sentiment Roberta Large English 3 Classes
該模型是基於RoBERTa架構的英文情感分析模型,可將文本分類為積極、中性和消極三類。
文本分類
Transformers 英語

S
j-hartmann
5,144
23
Bert Base Cased Korean Sentiment
Apache-2.0
這是一個基於BERT的多語言模型微調的韓文情感分析模型,專門用於分析韓文客戶評論的情感傾向。
文本分類
Transformers 韓語

B
WhitePeak
2,698
7
Videomae Base Finetuned Deception Dataset
基於MCG-NJU/videomae-base微調的視頻分析模型,用於欺騙檢測任務,準確率達70.37%
視頻處理
Transformers

V
NiklasTUM
36
0
Rubert Tiny2 Russian Emotion Sentiment
基於輕量級RuBERT-tiny2微調的俄語情感分類模型,可識別五種情緒
文本分類
Safetensors 其他
R
Kostya165
51
1
Ai Cop
DeBERTa-v3-small是微軟發佈的輕量級DeBERTa模型變體,適用於文本分類任務。
文本分類
Safetensors 英語
A
dejanseo
53
1
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
基於DistilBERT-base-uncased微調的食品/非食品文本分類器,在評估集上達到100%準確率
文本分類
Transformers

L
karenwky
58
1
Setfit Model Paraphrase MiniLM L6 V2
這是一個基於SetFit的高效少樣本學習模型,用於文本分類任務,採用sentence-transformers/paraphrase-MiniLM-L6-v2作為句子嵌入模型和LogisticRegression進行分類。
文本分類
S
hleAtKeeper
418
1
Sentiment Analysis With Distilbert Base Uncased
Apache-2.0
這是一個基於distilbert-base-uncased微調的情感分析模型,在評估集上取得了93.2%的準確率。
文本分類
Transformers

S
sherif-911
50
1
Phobert Content 256
基於vinai/phobert-base-v2微調的越南語文本分類模型,在驗證集上達到89.62%的準確率
大型語言模型
Transformers

P
RonTon05
64
1
Bert Spam Classification Model
MIT
這是一個通過微調bert-base-uncased模型實現的英文垃圾短信分類模型,能夠準確區分垃圾短信和正常短信。
文本分類
Safetensors 英語
B
fzn0x
209
2
Videomae Base Finetuned Kinetics 0409 Final 5sec Org Ab7 Val Inside Train
該模型是基於MCG-NJU/videomae-base-finetuned-kinetics微調的版本,主要用於視頻理解任務,在評估集上取得了91.38%的準確率。
視頻處理
Transformers

V
d2o2ji
17
0
Videomae Base Finetuned Kinetics 0409 Final 5sec Org Ab7 Val As123 Retry
基於MCG-NJU/videomae-base-finetuned-kinetics微調的視頻理解模型,在評估集上準確率達91.23%
視頻處理
Transformers

V
d2o2ji
30
0
Videomae Base Finetuned Ucf101 Subset
基於VideoMAE基礎模型在UCF101子集上微調的視頻分類模型
視頻處理
Transformers

V
cccchristopher
30
0
Videomae Base Finetuned Kinetics 0408 Final 45sec Org
基於MCG-NJU/videomae-base-finetuned-kinetics微調的視頻理解模型,在評估集上準確率達90.97%
視頻處理
Transformers

V
d2o2ji
26
0
Filing Classification Xlmr
Apache-2.0
基於XLM-RoBERTa-Large微調的財務文件分類模型,支持37種文件類型的分類任務。
文本分類
Transformers 支持多種語言

F
FinancialReports
40
1
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
基於DistilBERT的文本分類模型,用於區分食品與非食品文本
文本分類
Transformers

L
HimanshuGoyal2004
70
1
Detect Location Phobert
Apache-2.0
PhoBERT是基於RoBERTa架構優化的越南語預訓練語言模型,適用於越南語文本分類任務。
文本分類
TensorBoard 其他

D
datmieu2k4
201
1
SYAS1 PTBR
基於Distilbert架構的Transformer模型,專注於巴西葡萄牙語的情感分析
文本分類
Transformers 其他

S
1Arhat
118
1
SYAS1 PTBR
基於Distilbert架構的Transformer模型,專注於巴西葡萄牙語的情感分析
文本分類
Transformers 其他

S
manushya-ai
20
1
Econosentiment
Apache-2.0
基於econo-sentence-v2微調的金融領域情感分析模型,在金融短語銀行數據集上達到96.2%準確率
文本分類
Transformers 英語

E
samchain
31
1
Phobert Sentiment Analysis
基於vinai/phobert-base-v2微調的情感分析模型,在評估集上達到93.6%的準確率
文本分類
Transformers

P
phanlamthanhdu
68
1
Deepseekmath 7B MathFusion
Apache-2.0
MathFusionQA 是基於 deepseek-math-7b-base 的數學問題解決模型,通過指令融合增強大語言模型的數學問題解決能力。
大型語言模型
Transformers 英語

D
QizhiPei
14
1
Roberta Webis CPC
MIT
該模型是基於FacebookAI的roberta-base在Webi-CPC-11數據集上微調的版本,主要用於文本分類任務,在評估集上取得了84.32%的準確率。
文本分類
Transformers

R
Amaan39
47
1
Videomae Base Finetuned Signlanguage Last 3
基於MCG-NJU/videomae-base微調的視頻理解模型,專注於手語識別任務
視頻處理
Transformers

V
ihsanahakiim
21
1
Ast Finetuned Audioset 10 10 0.4593 Heart Sounds
Bsd-3-clause
基於MIT/ast-finetuned-audioset-10-10-0.4593微調的音頻分類模型,專注於心音分類任務,在驗證集上達到96.95%的準確率。
音頻分類
Transformers

A
Vladimirlv
46
1
Deepseek R1 Distill Qwen 32B Medical
DeepSeek-R1 是一個基於 deepseek-ai 基礎模型的改進版本,專注於音頻文本轉文本任務,支持英文語言處理。
大型語言模型
Transformers 英語

D
beita6969
455
5
Youtube Xlm Roberta Base Sentiment Multilingual
基於cardiffnlp/twitter-xlm-roberta-base-sentiment-multilingual微調的YouTube評論情感分析模型,準確率80.17%
文本分類
Y
AmaanP314
91
1
Finetuning Sentiment Model 3000 Samples 1
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達到85.67%
文本分類
Transformers

F
nayaksaroj
23
1
Book Review Sentiment
Apache-2.0
基於DistilBERT的輕量級文本情感分析模型,專門針對書評數據進行微調
文本分類
Transformers

B
mmcsweeney
20
1
Deepfake Audio Detection V1
Apache-2.0
基於wav2vec2-base微調的深度偽造音頻檢測模型,準確率達99.66%
音頻分類
Transformers

D
Zeyadd-Mostaffa
33
0
Bert Imdb Model
MIT
這是一個基於BERT模型微調的情感分析模型,專門用於分析IMDb電影評論的情感傾向(正面或負面)。
文本分類
Transformers 支持多種語言

B
philipobiorah
341
4
Wav2vec Checkpoints
Apache-2.0
基於facebook/wav2vec2-base微調的語音處理模型,在評估集上準確率達99.48%
語音識別
Transformers

W
Zeyadd-Mostaffa
19
0
Distilhubert Finetuned Gtzan
Apache-2.0
該模型是基於distilhubert在GTZAN音樂流派分類數據集上微調的音頻分類模型,準確率達84%。
音頻分類
Transformers

D
Gyaneshere
5
0
Ast Finetuned Audioset 10 10 0.4593 Finetuned Gtzan
Bsd-3-clause
該模型是基於Audio Spectrogram Transformer (AST)架構的音頻分類模型,在Audioset數據集上預訓練後,又在GTZAN音樂流派分類數據集上進行了微調。
音頻分類
Transformers

A
wkCircle
8
0
Distilhubert Finetuned Gtzan 5 Epochs Finetuned Gtzan Finetuned Gtzan
基於DistilHuBERT架構的音頻分類模型,在GTZAN數據集上微調,用於音樂流派分類任務。
音頻分類
Transformers

D
duysal
5
0
Hubert Base Ls960 2clsfinetuned Bmd V1 Epo10 20250201 141430 LOSO Section Out4
Apache-2.0
該模型是基於facebook/hubert-base-ls960微調的語音分類模型,主要用於二分類任務,在評估集上取得了78.26%的準確率。
音頻分類
Transformers

H
sarasarasara
3
0
Granite Question Classifier
MIT
基於 IBM Granite 嵌入模型微調的問題分類器,用於區分通用問題和定向問題
文本分類
Transformers 支持多種語言

G
cnmoro
22
2
- 1
- 2
- 3
- 4
- 5
- 6
- 10
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98