KR FinBert SC
面向韓語金融領域的預訓練語言模型,通過增量預訓練和情感分析微調提升金融文本處理性能
下載量 32.13k
發布時間 : 3/2/2022
模型概述
基於KR-BERT-MEDIUM進行金融領域適配的韓語模型,包含基礎預訓練版和情感分析微調版(KR-FinBert-SC),專門處理金融新聞和分析師報告等專業文本
模型特點
金融領域適配
使用13.22GB金融專業數據(新聞+分析師報告)進行增量預訓練,顯著提升金融術語理解能力
高性能情感分析
下游任務準確率達96.3%,超越通用韓語模型(KR-BERT/KcBERT)約0.5-15%
專業數據覆蓋
訓練數據涵蓋72家財經媒體和16家證券公司的專業內容,包含企業新聞和市場分析報告
模型能力
金融文本理解
情感傾向分析
企業新聞分類
市場報告解析
使用案例
金融市場分析
企業財報情感分析
自動判斷財經新聞對企業業績表述的積極/消極傾向
準確識別"營業利潤增長80%"為積極信號,"季度虧損566億"為消極信號
市場風險預警
從分析師報告中檢測潛在風險提示
可識別"供應中斷"、"盈利下滑"等風險關鍵詞
投資決策支持
股票異動歸因
關聯股價波動與相關新聞的情感極性
正確關聯"治療潛力暴漲19%"與股價上漲的因果關係
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98