Sentiment Analysis Model
Apache-2.0
基於DistilBERT的輕量級情感分析模型,適用於文本情感分類任務
文本分類
Transformers

S
Freakid
31
1
Distilbert Base Uncased Finetuned Imdb
Apache-2.0
基於distilbert-base-uncased模型在IMDB數據集上微調的文本分類模型
大型語言模型
Transformers

D
harshhmaniya
43
1
Deberta V3 Nli Onnx Quantized
Apache-2.0
基於DeBERTa-v3-base的量化ONNX模型,適用於零樣本文本分類任務
文本分類
Transformers 英語

D
pitangent-ds
25
0
Stress Dreaddit
MIT
基於microsoft/xtremedistil-l6-h384-uncased微調的模型,具體用途未明確說明
文本分類
Transformers

S
cjj8168
32
1
Bert Base Uncased Reviews 128
Apache-2.0
基於bert-base-uncased模型在評論數據集上微調的版本,適用於文本分類任務。
大型語言模型
Transformers

B
abhilashawasthi
19
0
Distilbert Base Uncased Finetuned Imdb
Apache-2.0
該模型是基於DistilBERT基礎模型在IMDB數據集上微調的版本,主要用於文本情感分析任務。
大型語言模型
Transformers

D
salihkavaf
67
0
Finetuned Sentence Itr0 3e 05 Essays 27 02 2022 19 35 56
Apache-2.0
基於distilbert-base-uncased-finetuned-sst-2-english微調的文本分類模型,在評估集上準確率達86.38%
文本分類
Transformers

F
ali2066
15
0
My Awesome Model
基於Transformer架構的預訓練語言模型,適用於多種自然語言處理任務。
文本分類
Transformers

M
mishig
15
0
T5 Base Finetuned Emotion
該模型是基於谷歌T5-base模型在情感識別數據集上微調而成,用於文本情感分類任務,可將文本分類為6種基本情感。
文本分類 英語
T
mrm8488
7,797
53
Roberta Scarcasm Discriminator
MIT
基於RoBERTa-base架構的諷刺文本分類器,用於區分文本是否為諷刺內容
文本分類
Transformers

R
XSY
30
0
Bert Base Uncased Sst2 Acc91.1 D37 Hybrid
Apache-2.0
該模型是基於bert-base-uncased在SST-2數據集上微調得到的文本分類模型,通過nn_pruning庫進行了剪枝優化,保留了原模型51%的權重,準確率達到91.17%。
文本分類
Transformers 英語

B
echarlaix
172
0
Distilbert Base Uncased Sst5 All Train
Apache-2.0
該模型是基於DistilBERT基礎模型在SST5數據集上微調的文本分類模型,準確率為50.45%。
文本分類
Transformers

D
SetFit
131
0
Distilbert Base Turkish Cased Allnli Tr
Apache-2.0
基於dbmdz/distilbert-base-turkish-cased微調的土耳其語零樣本分類模型
文本分類
Transformers 其他

D
emrecan
15
1
Mpnet Base Snli Mnli
一個專為零樣本和小樣本文本分類訓練的交叉注意力自然語言推理模型。
文本分類
Transformers 英語

M
symanto
18
4
Bert Base Uncased Sst2 Membership Attack
Apache-2.0
基於bert-base-uncased微調的模型,用於成員攻擊檢測任務,在評估集上準確率達到86.81%。
文本分類
Transformers

B
doyoungkim
116
0
Distilbert Base Uncased Finetuned Emotion
Apache-2.0
基於DistilBERT的輕量級文本情感分類模型,在emotion數據集上微調,準確率達92.4%
文本分類
Transformers

D
asalics
17
0
Bert Tiny Finetuned Sst2
該模型是基於BERT-tiny架構,在SST-2數據集上使用M-FAC二階優化器進行微調的文本分類模型。
文本分類
Transformers

B
M-FAC
59
0
Bert Mini Finetuned Sst2
該模型是在SST-2數據集上採用M-FAC二階優化器微調的BERT-mini模型,用於文本分類任務。
文本分類
Transformers

B
M-FAC
13.90k
0
Deberta V3 Large Sst2 Train 8 8
MIT
基於microsoft/deberta-v3-large模型在SST-2數據集上微調的情感分析模型
文本分類
Transformers

D
SetFit
17
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98