F

Finbert Pretrain Yiyanghkust

由philschmid開發
FinBERT是基於金融文本預訓練的BERT模型,旨在推動金融自然語言處理的研究與應用。
下載量 580
發布時間 : 3/2/2022

模型概述

FinBERT是基於BERT架構的金融領域預訓練語言模型,在三大金融文本語料庫(企業年報、財報電話會議記錄、分析師研究報告)上訓練,總語料規模達49億詞元。

模型特點

金融領域預訓練
專門針對金融文本進行預訓練,包含企業年報、財報電話會議記錄和分析師研究報告等專業語料
大規模語料
訓練語料規模達49億詞元,覆蓋金融領域多種文本類型
下游任務適配
可作為基礎模型針對各類金融NLP任務進行微調

模型能力

金融文本理解
金融領域掩碼預測
金融文本特徵提取

使用案例

金融文本分析
分析師情感分類
微調後可用於分析金融文本中的情感傾向
微調模型已發佈於https://huggingface.co/yiyanghkust/finbert-tone
金融文檔信息提取
從年報、財報等文檔中提取關鍵信息
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase