Finance Llama 8B
Apache-2.0
基於Llama 3.1 8B微調的金融領域專用模型,擅長金融推理、問答和多輪對話
大型語言模型
Transformers 英語

F
tarun7r
155
2
Emotion Model
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,用於文本情感分類任務
文本分類
Transformers

E
umeshkaushik610
15
1
Sentiment Analysis With Distilbert Base Uncased
Apache-2.0
這是一個基於distilbert-base-uncased微調的情感分析模型,在評估集上取得了93.2%的準確率。
文本分類
Transformers

S
sherif-911
50
1
Finetuning Sentiment Model 3000 Samples
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達87.67%
文本分類
Transformers

F
mayank15122000
111
1
Finetuning Sentiment Model 3000 Samples 1
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達到85.67%
文本分類
Transformers

F
nayaksaroj
23
1
Distilbert Emotion
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達到94%
文本分類
Transformers

D
asimmetti
32
1
EMOTION AI
Apache-2.0
基於DistilBERT的情感分析模型,在未知數據集上微調,準確率為56.16%
文本分類
Transformers

E
Hemg
20
1
Face Emotion
MIT
該模型是基於Google的ViT基礎模型在FER2013數據集上微調的面部表情分類器,可將圖像分類為四種面部表情。
人臉相關
F
gerhardien
34
6
Modernbert Base Nli
Apache-2.0
ModernBERT 是一個在多任務源的自然語言推理(NLI)任務上微調的模型,擅長零樣本分類和長上下文推理。
大型語言模型
Transformers 支持多種語言

M
tasksource
1,867
20
Distilbertnewssentiments
這是一個使用AutoTrain在SST-2英文數據集上微調的DistilBERT模型,用於文本分類任務。
文本分類
TensorBoard

D
maheshshastrakar
28
1
Finetuning Sentiment Ditilbert
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達87.67%
文本分類
Transformers

F
Neo111x
15
1
Sujet Finance 8B V0.1
Apache-2.0
基於LLAMA 3 8B微調的金融領域專用語言模型,專注於金融文本分析任務
大型語言模型
Transformers 英語

S
sujet-ai
27
12
Sst T5 Base
Apache-2.0
基於T5-base模型在SST數據集上微調的文本生成模型
大型語言模型
Transformers

S
kennethge123
17
2
Tinyllama Tarot V1
Apache-2.0
基於TinyLlama-1.1B微調的塔羅牌解讀模型,能夠根據塔羅牌進行預測和解讀。
大型語言模型
TensorBoard

T
barissglc
13.64k
6
Emobloom 7b
MIT
Emobloom-7b是EmoLLMs項目的組成部分,是首個具備指令跟隨能力的開源大語言模型系列,專注於全面情感分析。
大型語言模型
Transformers 英語

E
lzw1008
21
2
Emollama Chat 7b
MIT
Emollama-chat-7b是EmoLLMs項目的組成部分,是首個具備指令跟隨能力的開源大語言模型系列,專注於全面情感分析。
大型語言模型
Transformers 英語

E
lzw1008
281
4
Distilbert Finetuned On Emotion
Apache-2.0
基於DistilBERT在情感數據集上微調的文本分類模型,用於識別文本中的情感類別。
文本分類
Transformers

D
Rahmat82
1,652
2
Setfit All MiniLM L6 V2 Sst2 32 Shot
Apache-2.0
這是一個在sst2數據集上訓練的SetFit模型,用於英文文本分類任務,採用高效的少樣本學習技術訓練。
文本分類 英語
S
tomaarsen
23
7
Visobert
ViSoBERT是首個針對越南社交媒體文本構建的單語預訓練語言模型,基於XLM-R架構,在多項越南社交媒體任務中表現優異。
大型語言模型
Transformers 其他

V
uitnlp
2,260
35
Zero Shot Classify SSTuning Base
MIT
該模型採用自監督調優方法訓練,適用於零樣本文本分類任務,無需額外微調即可進行情感分析、主題分類等任務。
文本分類
Transformers

Z
DAMO-NLP-SG
44
7
Ser Model
Apache-2.0
基於facebook/wav2vec2-base微調的語音情感識別模型,在評估集上準確率達到84.71%
音頻分類
Transformers

S
aherzberg
30
0
Gpt2 Medium Finetuned Sst2 Sentiment
Apache-2.0
基於GPT-2中等模型在SST-2數據集上微調的情感分析模型,用於文本情感分類任務。
文本分類
Transformers 英語

G
michelecafagna26
422
8
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013CKPlus 7e 05 Finetuned FER2013 7e 05
Apache-2.0
基於BEiT架構的圖像分類模型,在FER2013和CK+數據集上進行了微調,主要用於面部表情識別任務。
圖像分類
Transformers

B
Celal11
17
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013 6e 05
Apache-2.0
基於微軟BEiT模型在FER2013數據集上微調的面部表情識別模型
人臉相關
Transformers

B
lixiqi
18
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013 8e 05
Apache-2.0
基於BEiT架構的圖像分類模型,在FER2013數據集上微調,用於面部表情識別任務
圖像分類
Transformers

B
lixiqi
87
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013 5e 05
Apache-2.0
基於微軟BEiT模型在FER2013數據集上微調的面部表情識別模型
圖像分類
Transformers

B
lixiqi
18
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013 9e 05
Apache-2.0
基於BEiT架構的視覺Transformer模型,在FER2013數據集上微調,用於面部表情識別任務
圖像分類
Transformers

B
lixiqi
19
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013
Apache-2.0
基於BEiT架構的圖像分類模型,在FER2013數據集上微調,用於面部表情識別
圖像分類
Transformers

B
lixiqi
20
0
Crypto Sentiment Analysis Bert
這是一個基於Bert架構微調的模型,專門用於分析文本消息的情感傾向,能夠區分正面和負面情感。
文本分類
Transformers

C
Robertuus
206
1
Autotrain Imdb 1166543179
這是一個使用AutoTrain訓練的二元分類模型,專門用於IMDB電影評論的情感分析。
文本分類
Transformers 英語

A
ameerazam08
26
1
Distilbert Base Uncased Finetuned Sst2
Apache-2.0
基於DistilBERT基礎模型在情感分析任務上微調的輕量級模型,準確率達90.37%
文本分類
Transformers

D
winegarj
2,556
2
Roberta Large Ernie2 Skep En
SKEP(情感知識增強預訓練模型)由百度於2020年提出,專為情感分析任務設計。該模型通過情感掩碼技術和三項情感預訓練目標,融合了多類型知識進行預訓練。
大型語言模型
Transformers 英語

R
Yaxin
29
2
Twteval Pretrained
MIT
基於BERT-BASE-UNCASED架構預訓練的情感分析模型,專門針對TWTEVAL數據集進行優化。
文本分類
Transformers

T
ArnavL
26
0
Albert Fa Base V2 Sentiment Deepsentipers Binary
Apache-2.0
面向波斯語的自監督語言表徵學習輕量版BERT模型
大型語言模型
Transformers 其他

A
m3hrdadfi
25
0
Distilbert Base Uncased Sst2 Train 32 1
Apache-2.0
該模型是基於distilbert-base-uncased在SST2數據集上微調的版本,主要用於情感分析任務。
文本分類
Transformers

D
SetFit
16
0
Distilbert Imdb Positive
該模型是基於DistilBERT架構的輕量級文本分類模型,專門針對IMDb電影評論的正面情感分析任務進行微調。
文本分類
Transformers

D
michalwilk123
26
0
Distilbert Base Uncased Sst2 Train 8 3
Apache-2.0
該模型是基於distilbert-base-uncased在SST-2數據集上微調的版本,主要用於文本分類任務。
文本分類
Transformers

D
SetFit
25
0
Finetuning Sentiment Model 3000 Samples
Apache-2.0
基於DistilBERT-base-uncased微調的情感分析模型,在IMDB數據集上訓練,用於文本分類任務
文本分類
Transformers

F
federicopascual
91
1
Distilbert Base Uncased Finetuned Emotion
Apache-2.0
基於DistilBERT基礎模型在情感數據集上微調的文本分類模型,用於情感分析任務。
文本分類
Transformers

D
jonc
17
0
Bert Large Uncased Sst2
基於BERT-Large-Uncased微調的情感分析模型,在斯坦福情感樹庫(SST2)上訓練,用於文本情感分類。
文本分類
Transformers

B
assemblyai
1,139
0
- 1
- 2
- 3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98