🚀 Labess-7b-chat模型
Labess-7b-chat是一個針對突尼斯方言進行指令調優的開源模型。它基於jais-adapted-7b-chat
模型,使用突尼斯方言數據集進行持續預訓練,為處理突尼斯方言相關的文本任務提供了強大的支持。
🚀 快速開始
安裝依賴
首先,你需要安裝transformers
庫,可使用以下命令進行安裝:
pip install transformers
運行模型
以下是一個快速運行模型的代碼示例:
import torch
from transformers import pipeline
pipe = pipeline(
"text-generation",
model="linagora/Labess-7b-chat-16bit",
model_kwargs={"torch_dtype": torch.bfloat16},
device="cuda"
)
messages = [
{"role": "user", "content": 'وين تجي تونس؟'},
]
outputs = pipe(messages, max_new_tokens=64, do_sample=True, temperature=0.2)
assistant_response = outputs[0]["generated_text"][-1]["content"].strip()
print(assistant_response)
運行上述代碼後,模型的回覆如下:
- Response:تونس هي بلاد في شمال إفريقيا هي بلاد جميلة برشة ومعروفة في العالم الكل هي بلاد فيها مناظر طبيعية
✨ 主要特性
- 針對性調優:專門針對突尼斯方言進行指令調優,能更好地處理該方言相關的文本任務。
- 持續預訓練:基於
jais-adapted-7b-chat
模型進行持續預訓練,融合了突尼斯方言數據集的知識。
📦 安裝指南
安裝transformers
庫是運行該模型的必要步驟,可使用以下命令完成安裝:
pip install transformers
💻 使用示例
基礎用法
import torch
from transformers import pipeline
pipe = pipeline(
"text-generation",
model="linagora/Labess-7b-chat-16bit",
model_kwargs={"torch_dtype": torch.bfloat16},
device="cuda"
)
messages = [
{"role": "user", "content": 'وين تجي تونس؟'},
]
outputs = pipe(messages, max_new_tokens=64, do_sample=True, temperature=0.2)
assistant_response = outputs[0]["generated_text"][-1]["content"].strip()
print(assistant_response)
📚 詳細文檔
模型信息
屬性 |
詳情 |
基礎模型 |
inceptionai/jais-adapted-7b-chat |
支持語言 |
阿拉伯語(突尼斯方言) |
許可證 |
apache-2.0 |
標籤 |
text-generation-inference、transformers、unsloth、llama、trl |
數據集 |
linagora/Tunisian_Derja_Dataset |
庫名稱 |
transformers |
模型開發信息
- 開發者:Linagora
- 許可證:apache-2.0
- 微調基礎模型:inceptionai/jais-adapted-7b-chat
📄 許可證
本模型使用apache-2.0
許可證。
📚 引用說明
當使用此模型 Labess-7b-chat 時,請按以下格式進行引用:
@model{linagora2025LLM-tn,
author = {Wajdi Ghezaiel and Jean-Pierre Lorré},
title = {Labess-7b-chat:Tunisian Derja LLM},
year = {2025},
month = {January},
url = {https://huggingface.co/datasets/Wajdi1976/Labess-7b-chat}
}
