Finance Llama 8B
Apache-2.0
Llama 3.1 8Bをファインチューニングした金融専門モデル、金融推論、Q&A、マルチターン対話に優れる
大規模言語モデル
Transformers 英語

F
tarun7r
155
2
Emotion Model
Apache-2.0
distilbert-base-uncasedをファインチューニングした感情分析モデルで、テキストの感情分類タスクに使用
テキスト分類
Transformers

E
umeshkaushik610
15
1
Sentiment Analysis With Distilbert Base Uncased
Apache-2.0
これはdistilbert-base-uncasedをファインチューニングした感情分析モデルで、評価データセットで93.2%の精度を達成しました。
テキスト分類
Transformers

S
sherif-911
50
1
Finetuning Sentiment Model 3000 Samples
Apache-2.0
distilbert-base-uncasedを基に微調整した感情分析モデルで、評価セットで87.67%の精度を達成
テキスト分類
Transformers

F
mayank15122000
111
1
Finetuning Sentiment Model 3000 Samples 1
Apache-2.0
distilbert-base-uncasedを基にファインチューニングした感情分析モデルで、評価セットで85.67%の精度を達成
テキスト分類
Transformers

F
nayaksaroj
23
1
Distilbert Emotion
Apache-2.0
distilbert-base-uncasedをファインチューニングした感情分析モデルで、評価データセットで94%の精度を達成
テキスト分類
Transformers

D
asimmetti
32
1
EMOTION AI
Apache-2.0
DistilBERTベースの感情分析モデル、未知のデータセットでファインチューニングされ、精度は56.16%
テキスト分類
Transformers

E
Hemg
20
1
Face Emotion
MIT
このモデルはGoogleのViTベースモデルをFER2013データセットでファインチューニングした顔表情分類器で、画像を4種類の顔表情に分類できます。
人の顔に関係がある
F
gerhardien
34
6
Modernbert Base Nli
Apache-2.0
ModernBERTはマルチタスクソースの自然言語推論(NLI)タスクでファインチューニングされたモデルで、ゼロショット分類と長文脈推論に優れています。
大規模言語モデル
Transformers 複数言語対応

M
tasksource
1,867
20
Distilbertnewssentiments
これはAutoTrainを使用してSST-2英語データセットでファインチューニングされたDistilBERTモデルで、テキスト分類タスクに使用されます。
テキスト分類
TensorBoard

D
maheshshastrakar
28
1
Finetuning Sentiment Ditilbert
Apache-2.0
distilbert-base-uncasedをファインチューニングした感情分析モデルで、評価データセットでの精度は87.67%
テキスト分類
Transformers

F
Neo111x
15
1
Sujet Finance 8B V0.1
Apache-2.0
LLAMA 3 8Bをベースに微調整された金融分野専用の言語モデルで、金融テキスト分析タスクに特化しています。
大規模言語モデル
Transformers 英語

S
sujet-ai
27
12
Sst T5 Base
Apache-2.0
SSTデータセットでT5-baseモデルをファインチューニングしたテキスト生成モデル
大規模言語モデル
Transformers

S
kennethge123
17
2
Tinyllama Tarot V1
Apache-2.0
TinyLlama-1.1Bをファインチューニングしたタロットカード解釈モデルで、タロットカードに基づいた予測と解釈が可能です。
大規模言語モデル
TensorBoard

T
barissglc
13.64k
6
Emobloom 7b
MIT
Emobloom-7bはEmoLLMsプロジェクトの一部であり、包括的な感情分析に特化した、命令追従能力を備えた最初のオープンソース大規模言語モデルシリーズです。
大規模言語モデル
Transformers 英語

E
lzw1008
21
2
Emollama Chat 7b
MIT
Emollama-chat-7bはEmoLLMsプロジェクトの一部であり、命令追従能力を備えた最初のオープンソース大規模言語モデルシリーズで、包括的な感情分析に特化しています。
大規模言語モデル
Transformers 英語

E
lzw1008
281
4
Distilbert Finetuned On Emotion
Apache-2.0
DistilBERTを感情データセットでファインチューニングしたテキスト分類モデルで、テキスト中の感情カテゴリを識別します。
テキスト分類
Transformers

D
Rahmat82
1,652
2
Setfit All MiniLM L6 V2 Sst2 32 Shot
Apache-2.0
これはsst2データセットで訓練されたSetFitモデルで、英文テキスト分類タスクに使用され、効率的な少数ショット学習技術で訓練されています。
テキスト分類 英語
S
tomaarsen
23
7
Visobert
ViSoBERTは、ベトナムのソーシャルメディアテキスト向けに構築された初の単一言語事前学習言語モデルで、XLM-Rアーキテクチャに基づいており、複数のベトナムソーシャルメディアタスクで優れたパフォーマンスを発揮します。
大規模言語モデル
Transformers その他

V
uitnlp
2,260
35
Zero Shot Classify SSTuning Base
MIT
このモデルは自己教師ありチューニング手法で訓練されており、ゼロショットテキスト分類タスクに適しており、追加のファインチューニングなしで感情分析やトピック分類などのタスクを実行できます。
テキスト分類
Transformers

Z
DAMO-NLP-SG
44
7
Ser Model
Apache-2.0
facebook/wav2vec2-baseをファインチューニングした音声感情認識モデルで、評価データセットで84.71%の精度を達成
音声分類
Transformers

S
aherzberg
30
0
Gpt2 Medium Finetuned Sst2 Sentiment
Apache-2.0
GPT-2中型モデルをSST-2データセットでファインチューニングした感情分析モデルで、テキスト感情分類タスクに使用されます。
テキスト分類
Transformers 英語

G
michelecafagna26
422
8
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013CKPlus 7e 05 Finetuned FER2013 7e 05
Apache-2.0
BEiTアーキテクチャに基づく画像分類モデルで、FER2013とCK+データセットでファインチューニングされており、主に表情認識タスクに使用されます。
画像分類
Transformers

B
Celal11
17
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013 6e 05
Apache-2.0
FER2013データセットでファインチューニングされたMicrosoft BEiTモデルベースの表情認識モデル
人の顔に関係がある
Transformers

B
lixiqi
18
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013 8e 05
Apache-2.0
BEiTアーキテクチャに基づく画像分類モデルで、FER2013データセットでファインチューニングされ、表情認識タスクに使用されます
画像分類
Transformers

B
lixiqi
87
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013 5e 05
Apache-2.0
FER2013データセットでファインチューニングされたマイクロソフトBEiTモデルに基づく表情認識モデル
画像分類
Transformers

B
lixiqi
18
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013 9e 05
Apache-2.0
BEiTアーキテクチャに基づくビジョントランスフォーマーモデルで、FER2013データセットでファインチューニングされ、表情認識タスク用
画像分類
Transformers

B
lixiqi
19
0
Beit Base Patch16 224 Pt22k Ft22k Finetuned FER2013
Apache-2.0
BEiTアーキテクチャに基づく画像分類モデルで、FER2013データセットでファインチューニングされ、顔表情認識に使用されます
画像分類
Transformers

B
lixiqi
20
0
Crypto Sentiment Analysis Bert
これはBertアーキテクチャを基にファインチューニングされたモデルで、テキストメッセージの感情傾向を分析し、ポジティブとネガティブな感情を区別できます。
テキスト分類
Transformers

C
Robertuus
206
1
Autotrain Imdb 1166543179
これはAutoTrainでトレーニングされた二項分類モデルで、IMDB映画レビューの感情分析に特化しています。
テキスト分類
Transformers 英語

A
ameerazam08
26
1
Distilbert Base Uncased Finetuned Sst2
Apache-2.0
DistilBERTベースモデルを感情分析タスクでファインチューニングした軽量モデル、精度90.37%
テキスト分類
Transformers

D
winegarj
2,556
2
Roberta Large Ernie2 Skep En
SKEP(感情知識拡張事前学習モデル)は百度によって2020年に提案され、感情分析タスクのために特別に設計されました。このモデルは感情マスキング技術と3つの感情事前学習目標を通じて、複数タイプの知識を統合して事前学習を行います。
大規模言語モデル
Transformers 英語

R
Yaxin
29
2
Twteval Pretrained
MIT
BERT-BASE-UNCASEDアーキテクチャに基づく事前学習済み感情分析モデルで、TWTEVALデータセット向けに最適化されています。
テキスト分類
Transformers

T
ArnavL
26
0
Distilbert Imdb Positive
このモデルはDistilBERTアーキテクチャに基づく軽量テキスト分類モデルで、IMDb映画レビューのポジティブ感情分析タスク向けに特別にファインチューニングされています。
テキスト分類
Transformers

D
michalwilk123
26
0
Kobart
MIT
KoBART-base-v2はBARTアーキテクチャに基づく韓国語事前学習モデルで、チャットデータを追加することで長文シーケンスの意味処理能力を最適化しています。
大規模言語モデル
Transformers 韓国語

K
hyunwoongko
72.70k
9
Distilbert Base Uncased Sst2 Train 32 1
Apache-2.0
このモデルはdistilbert-base-uncasedをSST2データセットでファインチューニングしたバージョンで、主に感情分析タスクに使用されます。
テキスト分類
Transformers

D
SetFit
16
0
Distilbert Base Uncased Finetuned Emotion
Apache-2.0
DistilBERTの基礎モデルを感情データセットで微調整したテキスト分類モデルで、感情分析タスクに使用されます。
テキスト分類
Transformers

D
jonc
17
0
Distilbert Sst2
Apache-2.0
distilbert-base-uncasedをベースにGLUEデータセットで微調整したテキスト分類モデル
テキスト分類
Transformers

D
mattchurgin
15
0
Distilbert Base Uncased Finetuned Emotion
Apache-2.0
DistilBERTベースの軽量感情分類モデル、感情データセットでファインチューニングされ、精度92.5%を達成
テキスト分類
Transformers

D
mattmcclean
17
0
Robertuito Base Uncased
RoBERTuitoはスペイン語ソーシャルメディアテキスト向けに事前学習された言語モデルで、5億件のツイートで訓練され、複数のスペイン語ソーシャルメディアテキストタスクで優れた性能を発揮します。
大規模言語モデル
Transformers スペイン語

R
pysentimiento
1,451
12
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98