🚀 FinMA-7B-NLP
FinMA-7B-NLP是一款金融大語言模型(LLM),是PIXIU項目的一部分。它旨在理解複雜的金融語言和概念,並經過微調以遵循自然語言指令,從而提升其在下游金融任務中的表現。具體而言,FinMA-7B-NLP僅在PIXIU數據集的NLP任務上進行訓練,因此它特別適用於情感分析、新聞標題分類、命名實體識別和問答等任務。
🚀 快速開始
FinMA-7B-NLP是一款專為理解複雜金融語言和概念而開發的金融大語言模型。它經過微調,能夠遵循自然語言指令,在下游金融任務中表現出色。
✨ 主要特性
- 專業金融領域:專門針對金融領域的NLP任務進行訓練,如情感分析、新聞標題分類、命名實體識別和問答等。
- 多模型協同:作為PIXIU項目的一部分,與FinMA-7B-full和FinMA-30B等其他模型協同工作,滿足不同的金融任務需求。
- 易於使用:可以通過Hugging Face Transformers庫在Python項目中輕鬆加載和使用。
📦 安裝指南
你可以使用Hugging Face Transformers庫在Python項目中使用FinMA-7B-NLP模型。以下是加載模型的簡單示例:
from transformers import LlamaTokenizer, LlamaForCausalLM
tokenizer = LlamaTokenizer.from_pretrained('ChanceFocus/finma-7b-nlp')
model = LlamaForCausalLM.from_pretrained('ChanceFocus/finma-7b-nlp', device_map='auto')
在這個示例中,LlamaTokenizer
用於加載分詞器,LlamaForCausalLM
用於加載模型。device_map='auto'
參數用於在可用時自動使用GPU。
💻 使用示例
基礎用法
from transformers import LlamaTokenizer, LlamaForCausalLM
tokenizer = LlamaTokenizer.from_pretrained('ChanceFocus/finma-7b-nlp')
model = LlamaForCausalLM.from_pretrained('ChanceFocus/finma-7b-nlp', device_map='auto')
高級用法
你還可以通過Hugging Face推理API使用該模型。這允許你在無需設置自己的推理環境的情況下生成文本。模型可以按需在推理API上加載。
📚 詳細文檔
PIXIU項目中的其他模型
除了FinMA-7B-NLP,PIXIU項目還包括另外兩個模型:FinMA-7B-full和FinMA-30B。
- FinMA-7B-full:該模型使用PIXIU數據集中的完整指令數據進行訓練,涵蓋了NLP和預測任務。這使得它成為一個更全面的模型,能夠處理更廣泛的金融任務。
- FinMA-30B:該模型是FinMA的更大版本,在LLaMA-30B模型上進行微調。與FinMA-7B-NLP一樣,它使用NLP指令數據進行訓練。
關於
該模型是PIXIU項目的一部分,PIXIU是一個開源資源,提供了首批金融大語言模型(LLM)、指令調優數據和評估基準,以全面評估金融LLM。其目標是持續推動金融人工智能(AI)的開源發展。
如需更多信息,你可以訪問GitHub上的PIXIU項目。
📄 許可證
FinMA-7B-NLP採用MIT許可證。有關更多詳細信息,請參閱MIT文件。
🔖 引用
如果你在工作中使用了FinMA-7B-NLP,請引用PIXIU論文:
@misc{xie2023pixiu,
title={PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark for Finance},
author={Qianqian Xie and Weiguang Han and Xiao Zhang and Yanzhao Lai and Min Peng and Alejandro Lopez-Lira and Jimin Huang},
year={2023},
eprint={2306.05443},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
📋 信息表格
屬性 |
詳情 |
數據集 |
chancefocus/pixiu、ChanceFocus/FLUPE |
語言 |
英語 |
推理 |
否 |
許可證 |
MIT |
評估指標 |
準確率、精確匹配、F1值 |
庫名稱 |
transformers |
標籤 |
金融、llama、大語言模型 |