🚀 Mistral-7B-Banking
Mistral-7B-Banking是基於mistralai/Mistral-7B-Instruct-v0.2微調的模型,專為銀行領域定製。它能夠精準回答問題,助力用戶完成各類銀行交易。
🚀 快速開始
Mistral-7B-Banking模型專為銀行領域的聊天機器人、虛擬助手和副駕駛的創建而設計,是Bitext兩步式大語言模型微調方法的第一步,能為客戶提供快速準確的銀行相關需求解答。
✨ 主要特性
📦 安裝指南
暫未提供相關安裝步驟內容。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model = AutoModelForCausalLM.from_pretrained("bitext/Mistral-7B-Banking-v2")
tokenizer = AutoTokenizer.from_pretrained("bitext/Mistral-7B-Banking-v2")
messages = [
{"role": "system", "content": "You are an expert in customer support for Banking."},
{"role": "user", "content": "I want to open a bank account"},
]
encoded = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encoded.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
📚 詳細文檔
模型架構
此模型採用MistralForCausalLM
架構和LlamaTokenizer
,在保留基礎模型核心能力的同時,針對銀行相關交互進行了專門優化。
訓練數據
該模型在一個包含各種銀行相關意圖的數據集上進行了微調,這些意圖包括餘額查詢、轉賬、貸款申請等交易,總共89種意圖,每種意圖約有1000個示例。這種全面的訓練使模型能夠有效處理廣泛的銀行相關問題。該數據集遵循與我們在Hugging Face上發佈的bitext/Bitext-customer-support-llm-chatbot-training-dataset相同的結構化方法,但側重於銀行領域。
訓練過程
超參數
屬性 |
詳情 |
優化器 |
AdamW |
學習率 |
0.0002,採用餘弦學習率調度器 |
訓練輪數 |
3 |
批次大小 |
4 |
梯度累積步數 |
4 |
最大序列長度 |
8192個標記 |
環境
屬性 |
詳情 |
Transformers版本 |
4.43.4 |
框架 |
PyTorch 2.3.1+cu121 |
分詞器 |
Tokenizers 0.19.1 |
預期用途
- 推薦應用:該模型旨在作為Bitext兩步式大語言模型微調方法的第一步,用於創建銀行領域的聊天機器人、虛擬助手和副駕駛,為客戶提供有關銀行需求的快速準確答案。
- 不適用範圍:此模型不適用於非銀行相關問題,也不應用於提供健康、法律或關鍵安全建議。
侷限性和偏差
- 該模型針對銀行特定上下文進行訓練,在不相關領域可能表現不佳。
- 訓練數據中可能存在的偏差會影響回覆的中立性,建議用戶批判性地評估回覆。
倫理考量
謹慎使用這項技術至關重要,確保在必要時不取代人類判斷,尤其是在敏感的金融情況下。
致謝
該模型由Bitext使用專有數據和技術開發和訓練。
📄 許可證
Mistral-7B-Banking模型由Bitext Innovations International, Inc.根據Apache License 2.0許可。此開源許可證允許免費使用、修改和分發該模型,但要求對Bitext給予適當的認可。
Apache 2.0許可證要點
- 許可權限:允許用戶自由使用、修改和分發此軟件。
- 歸屬要求:使用此模型時,必須按照原始版權聲明和許可證的規定,對Bitext Innovations International, Inc.給予適當的認可。
- 專利授權:許可證包含模型貢獻者授予的專利權利。
- 無擔保聲明:模型“按原樣”提供,不提供任何形式的保證。
您可以在Apache License 2.0查看完整的許可證文本。這種許可方式確保了模型可以廣泛自由地使用,同時尊重Bitext的知識產權貢獻。有關使用此許可證的更詳細信息或具體法律問題,請參考上述鏈接的官方許可證文檔。