Finbert Pretrain
FinBERTは金融テキストの事前学習に基づくBERTモデルで、金融自然言語処理の研究と実践を推進することを目的としています。
ダウンロード数 9,645
リリース時間 : 3/2/2022
モデル概要
FinBERTはBERTアーキテクチャに基づく金融分野の事前学習言語モデルで、金融テキストの処理に特化して設計されており、感情分析やESG分類などの下流タスクをサポートします。
モデル特徴
金融分野の事前学習
49億のトークンからなる金融テキストコーパス(企業財務報告、電話会議記録、アナリストレポート)に基づいて事前学習されており、分野適応性を持っています。
多タスクサポート
金融感情分析、ESG分類、将来性声明分類などの様々な下流タスクをサポートし、特定のタスクに合わせて微調整することができます。
学術研究サポート
明確な学術引用規範を提供し、研究者が学術活動で引用しやすくなっています。
モデル能力
金融テキスト理解
感情分析
ESG分類
将来性声明識別
使用事例
金融分析
財務報告感情分析
企業財務報告の感情傾向を分析し、投資決定を支援します。
ESG評価
企業報告内のESG関連内容を自動分類し、持続可能な投資をサポートします。
市場調査
将来性声明検出
財務報告電話会議内の将来性声明を識別し、企業の将来展望を分析します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98