Econosentiment
Apache-2.0
econo-sentence-v2を微調整した金融分野の感情分析モデルで、金融フレーズバンクデータセットで96.2%の精度を達成
テキスト分類
Transformers 英語

E
samchain
31
1
Llama3 News Analysis
MIT
Llama-3.2-3Bをファインチューニングしたニュース分析モデルで、要約生成、感情分析、株式コード抽出、広告識別をサポート
大規模言語モデル
Transformers 韓国語

L
irene93
50
1
Finbert Finetuned Github
MIT
このモデルはFinBERTをベースに金融感情分類用にファインチューニングされたもので、金融テキストをネガティブ、ニュートラル、ポジティブの3つに分類できます。
テキスト分類
Transformers 英語

F
Driisa
4,622
1
Modern FinBERT Large
Apache-2.0
Modern-FinBERT-largeは金融感情分析専用に設計された事前学習済みNLPモデルで、ModernBERT-large言語モデルを基に、大規模な金融コーパスで訓練され、金融テキスト分類タスクに適応しています。
テキスト分類
Transformers 英語

M
beethogedeon
127
2
Distilbert Base Uncased Financial News Sentiment Analysis
Apache-2.0
このモデルはDistilBERTをベースに微調整された金融感情分析モデルで、金融テキストの感情分類に特化しています。
テキスト分類
Transformers 英語

D
AnkitAI
121
3
Finllama 3 8B
Llama-3-8Bをファインチューニングした金融テキスト感情分析モデル、ポジティブ/ニュートラル/ネガティブの三分類をサポート
テキスト分類
Transformers 英語

F
roma2025
103
2
Trading Hero LLM
MIT
FinBERTをファインチューニングした金融感情分析モデルで、金融テキストの感情分類に最適化されています
テキスト分類
Transformers

T
fuchenru
313
33
Fine Tuned Cardiffnlp Twitter Roberta Base Sentiment Finance Dataset
このモデルはcardiffnlp/twitter-roberta-base-sentimentをツイッター金融ニュース感情データセットでファインチューニングしたバージョンで、金融テキストの感情分析に特化しています。
テキスト分類
Transformers 英語

F
arwisyah
64
1
Finma 7b Nlp
MIT
FinMA-7B-NLPは貔貅プロジェクトが開発した金融分野の大規模言語モデルで、複雑な金融用語や概念の理解に特化して設計されており、自然言語命令のファインチューニングを経て、金融NLPタスクに優れた性能を発揮します。
大規模言語モデル
Transformers 英語

F
TheFinAI
20
6
SSAF FinBert
MIT
SSAF-FinBertはFinBertを微調整した株式市場ニュースの感情分析モデルで、金融テキストをポジティブ、ネガティブ、ニュートラルの3つの感情に分類できます。
テキスト分類
Transformers

S
likith123
69
2
Deberta V3 Ft Financial News Sentiment Analysis
MIT
DeBERTa-v3-smallをファインチューニングした金融ニュース感情分析モデルで、評価セットでF1値0.9940を達成
テキスト分類
Transformers

D
mrm8488
1,777
26
Llama2 7b Finance
MIT
金融データセットでファインチューニングされたLLama 2 7b言語モデルで、金融分野に特化しており、金融関連テキストの抽出、理解、生成に優れています。
大規模言語モデル
Transformers 英語

L
cxllin
228
19
Finance Sentiment Classification
MIT
Deberta-v2アーキテクチャに基づく金融感情分類モデルで、複数の金融感情データセットでファインチューニング済み
テキスト分類
Transformers 英語

F
RashidNLP
418
24
Finabsa
Apache-2.0
FinABSAはT5-Largeアーキテクチャでトレーニングされたアスペクト感情分析(ABSA)タスク向けモデルで、複数のアスペクトを含む文章を解析できます。ターゲットアスペクトを[TGT]トークンに置き換えることで、モデルはそのアスペクトの感情予測に集中できます。
大規模言語モデル
Transformers 英語

F
amphora
146
5
FLANG BERT
FLANG-BERTは金融領域に最適化された事前学習言語モデルで、BERTアーキテクチャを基盤とし、金融用語優先マスキング戦略により領域表現能力を強化しています。
大規模言語モデル
Transformers 英語

F
SALT-NLP
52
5
Deberta V3 Base Finetuned Finance Text Classification
MIT
microsoft/deberta-v3-baseをベースにファインチューニングした金融テキスト感情分析モデルで、経済ニュースや市場感情の分析に特化
テキスト分類
Transformers

D
nickmuchi
1,540
21
Emtract Distilbert Base Uncased Emotion
MIT
DistilBERTを微調整した金融ソーシャルメディア感情分析モデルで、StockTwitsなどのプラットフォームのテキスト感情分析に優れている
テキスト分類
Transformers 英語

E
vamossyd
797
5
Roberta Base Stocktwits Finetuned
Apache-2.0
roberta-baseモデルを微調整した株式コメントの感情分析モデルで、個人投資家の発言の上昇/下落傾向を判断できます。
テキスト分類
Transformers 英語

R
zhayunduo
2,118
26
Financial Sentiment Model
Apache-2.0
このモデルはdeepmind/language-perceiverをfinancial_phrasebankデータセットでファインチューニングした金融テキスト感情分類モデルです。
テキスト分類
Transformers

F
oandreae
15
1
Distilroberta Finetuned Financial News Sentiment Analysis
Apache-2.0
DistilRoBERTaを微調整した金融ニュース感情分析モデルで、正解率は98.23%に達します。
テキスト分類
Transformers

D
mrm8488
310.81k
386
Finbert Pretrain
FinBERTは金融テキストの事前学習に基づくBERTモデルで、金融自然言語処理の研究と実践を推進することを目的としています。
大規模言語モデル
Transformers

F
yiyanghkust
9,645
36
Finbert Tone
FinBERTは金融通信テキストを元に事前学習されたBERTモデルで、金融自然言語処理分野に特化しています。finbert-toneはその微調整バージョンで、金融感情分析タスクに使用されます。
テキスト分類
Transformers 英語

F
yiyanghkust
998.46k
178
Distilroberta Finetuned Financial Text Classification
Apache-2.0
distilroberta-baseをベースに微調整した金融テキストの感情分析モデルで、金融ニュースの感情傾向(ネガティブ、ニュートラル、ポジティブ)を判断するために使用されます。
テキスト分類
Transformers 英語

D
nickmuchi
1,220
15
KR FinBert SC
韓国語の金融分野を対象とした事前学習言語モデルで、増分事前学習と感情分析の微調整により金融テキスト処理性能を向上させます。
大規模言語モデル
Transformers 韓国語

K
snunlp
32.13k
28
Financialbert Sentiment Analysis
BERTアーキテクチャに基づく金融分野専用の感情分析モデルで、金融フレーズデータセットでファインチューニング済み
テキスト分類
Transformers 英語

F
ahmedrachid
58.28k
88
Bert Base Finance Sentiment Noisy Search
Apache-2.0
BERTベースの金融感情分析モデルで、ノイズ検索によるデータ強化トレーニングを経ており、金融ニュースの感情分類に適しています
テキスト分類
Transformers

B
oferweintraub
15
3
Finbert
FinBERTは金融テキストの感情分析に特化した事前学習済みの自然言語処理モデルです。
大規模言語モデル 英語
F
ProsusAI
1.6M
864
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98