🚀 DISC-FinLLM
DISC-FinLLM 是以百川 13B-Chat 為基礎模型的金融領域大模型,由復旦大學數據智能與社會計算實驗室(Fudan-DISC)開發並開源。該模型專為金融場景打造,能為用戶提供專業、智能且全面的金融諮詢服務。
[Demo](https://finllm.fudan-disc.com) | [技術報告](https://arxiv.org/abs/2309.11325)
⚠️ 重要提示
由於項目持續開發,本倉庫中的模型權重可能與當前部署的演示版本有所不同。
✨ 主要特性
DISC-FinLLM 是一個多專家智能金融系統,由四個針對不同金融場景的模塊組成,在金融 NLP 任務、人工測試題、數據分析和時事分析等四項評估中展現出明顯優勢,能為廣泛的金融領域提供有力支持,可用於實現不同功能:
- 金融諮詢:該模塊可在中文金融語境下就金融話題與用戶展開多輪對話,或向用戶解釋金融專業的相關知識,由數據集的金融諮詢指令部分構成。
- 金融文本分析:此模塊能幫助用戶完成金融文本的信息提取、情感分析、文本分類和文本生成等 NLP 任務,通過數據集中的金融任務指令進行訓練。
- 金融計算:該模塊可協助用戶完成與數學計算相關的任務,除利率、增長率等基本計算外,還支持統計分析,包括布萊克 - 斯科爾斯期權定價模型和 EDF 預期違約概率模型等金融模型計算,部分由數據集中的金融計算指令訓練得到。
- 金融知識檢索問答:此模塊可根據金融新聞、研究報告和相關政策文件為用戶提供投資建議、時事分析和政策解讀,部分由數據集中的檢索增強指令訓練得到。
更多信息請查看 主頁。
📦 安裝指南
可通過 Hugging Face Transformers 使用該模型:
>>>import torch
>>>>>>from transformers import AutoModelForCausalLM, AutoTokenizer
>>>from transformers.generation.utils import GenerationConfig
>>>tokenizer = AutoTokenizer.from_pretrained("Go4miii/DISC-FinLLM", use_fast=False, trust_remote_code=True)
>>>model = AutoModelForCausalLM.from_pretrained("Go4miii/DISC-FinLLM", device_map="auto", torch_dtype=torch.float16, trust_remote_code=True)
>>>model.generation_config = GenerationConfig.from_pretrained("Go4miii/DISC-FinLLM")
>>>messages = []
>>>messages.append({"role": "user", "content": "請解釋一下什麼是銀行不良資產?"})
>>>response = model.chat(tokenizer, messages)
>>>print(response)
📚 詳細文檔
DISC-Fin-SFT 數據集
DISC-FinLLM 是基於高質量金融數據集 DISC-Fin-SFT 的大型金融模型。我們在通用領域中文大模型百川 13B-Chat 上構建並微調了 LoRA 指令。DISC-Fin-SFT 總共包含約 250,000 條數據,分為四個子數據集,分別是金融諮詢指令、金融任務指令、金融計算指令和檢索增強指令。
數據集 |
樣本數量 |
輸入長度 |
輸出長度 |
金融諮詢指令 |
63k |
26 |
369 |
金融任務指令 |
110k |
676 |
35 |
金融計算指令 |
57k |
73 |
190 |
檢索增強指令 |
20k |
1031 |
521 |
DISC-Fin-SFT |
246k |
351 |
198 |
📄 許可證
本倉庫源代碼的使用遵循 Apache 2.0 許可證。
免責聲明
DISC-FinLLM 存在當前大語言模型無法克服的問題和不足。儘管它能在許多任務和場景的金融領域提供服務,但該模型僅供用戶參考,不能替代專業金融分析師和金融專家,我們希望 DISC-FinLLM 的用戶能夠批判性地評估該模型。我們不對使用 DISC-FinLLM 所產生的任何問題、風險或不良後果負責。
引用
如果我們的項目對您的研究和工作有幫助,請按以下方式引用我們的工作:
@misc{yue2023disclawllm,
title={DISC-LawLLM: Fine-tuning Large Language Models for Intelligent Legal Services},
author={Shengbin Yue and Wei Chen and Siyuan Wang and Bingxuan Li and Chenchen Shen and Shujun Liu and Yuxuan Zhou and Yao Xiao and Song Yun and Xuanjing Huang and Zhongyu Wei},
year={2023},
eprint={2309.11325},
archivePrefix={arXiv},
primaryClass={cs.CL}
}