🚀 DISC-FinLLM
DISC-FinLLM 是以百川 13B-Chat 为基础模型的金融领域大模型,由复旦大学数据智能与社会计算实验室(Fudan-DISC)开发并开源。该模型专为金融场景打造,能为用户提供专业、智能且全面的金融咨询服务。
[Demo](https://finllm.fudan-disc.com) | [技术报告](https://arxiv.org/abs/2309.11325)
⚠️ 重要提示
由于项目持续开发,本仓库中的模型权重可能与当前部署的演示版本有所不同。
✨ 主要特性
DISC-FinLLM 是一个多专家智能金融系统,由四个针对不同金融场景的模块组成,在金融 NLP 任务、人工测试题、数据分析和时事分析等四项评估中展现出明显优势,能为广泛的金融领域提供有力支持,可用于实现不同功能:
- 金融咨询:该模块可在中文金融语境下就金融话题与用户展开多轮对话,或向用户解释金融专业的相关知识,由数据集的金融咨询指令部分构成。
- 金融文本分析:此模块能帮助用户完成金融文本的信息提取、情感分析、文本分类和文本生成等 NLP 任务,通过数据集中的金融任务指令进行训练。
- 金融计算:该模块可协助用户完成与数学计算相关的任务,除利率、增长率等基本计算外,还支持统计分析,包括布莱克 - 斯科尔斯期权定价模型和 EDF 预期违约概率模型等金融模型计算,部分由数据集中的金融计算指令训练得到。
- 金融知识检索问答:此模块可根据金融新闻、研究报告和相关政策文件为用户提供投资建议、时事分析和政策解读,部分由数据集中的检索增强指令训练得到。
更多信息请查看 主页。
📦 安装指南
可通过 Hugging Face Transformers 使用该模型:
>>>import torch
>>>>>>from transformers import AutoModelForCausalLM, AutoTokenizer
>>>from transformers.generation.utils import GenerationConfig
>>>tokenizer = AutoTokenizer.from_pretrained("Go4miii/DISC-FinLLM", use_fast=False, trust_remote_code=True)
>>>model = AutoModelForCausalLM.from_pretrained("Go4miii/DISC-FinLLM", device_map="auto", torch_dtype=torch.float16, trust_remote_code=True)
>>>model.generation_config = GenerationConfig.from_pretrained("Go4miii/DISC-FinLLM")
>>>messages = []
>>>messages.append({"role": "user", "content": "请解释一下什么是银行不良资产?"})
>>>response = model.chat(tokenizer, messages)
>>>print(response)
📚 详细文档
DISC-Fin-SFT 数据集
DISC-FinLLM 是基于高质量金融数据集 DISC-Fin-SFT 的大型金融模型。我们在通用领域中文大模型百川 13B-Chat 上构建并微调了 LoRA 指令。DISC-Fin-SFT 总共包含约 250,000 条数据,分为四个子数据集,分别是金融咨询指令、金融任务指令、金融计算指令和检索增强指令。
数据集 |
样本数量 |
输入长度 |
输出长度 |
金融咨询指令 |
63k |
26 |
369 |
金融任务指令 |
110k |
676 |
35 |
金融计算指令 |
57k |
73 |
190 |
检索增强指令 |
20k |
1031 |
521 |
DISC-Fin-SFT |
246k |
351 |
198 |
📄 许可证
本仓库源代码的使用遵循 Apache 2.0 许可证。
免责声明
DISC-FinLLM 存在当前大语言模型无法克服的问题和不足。尽管它能在许多任务和场景的金融领域提供服务,但该模型仅供用户参考,不能替代专业金融分析师和金融专家,我们希望 DISC-FinLLM 的用户能够批判性地评估该模型。我们不对使用 DISC-FinLLM 所产生的任何问题、风险或不良后果负责。
引用
如果我们的项目对您的研究和工作有帮助,请按以下方式引用我们的工作:
@misc{yue2023disclawllm,
title={DISC-LawLLM: Fine-tuning Large Language Models for Intelligent Legal Services},
author={Shengbin Yue and Wei Chen and Siyuan Wang and Bingxuan Li and Chenchen Shen and Shujun Liu and Yuxuan Zhou and Yao Xiao and Song Yun and Xuanjing Huang and Zhongyu Wei},
year={2023},
eprint={2309.11325},
archivePrefix={arXiv},
primaryClass={cs.CL}
}