🚀 koOpenChat - sft🐧
koOpenChat - sft是一個基於特定技術開發的模型,它在相關領域有著獨特的應用價值,能為用戶提供特定場景下的服務。
🚀 快速開始
如果你想使用koOpenChat - sft模型,可以參考下面的代碼示例。
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("maywell/koOpenChat-sft")
tokenizer = AutoTokenizer.from_pretrained("maywell/koOpenChat-sft")
messages = [
{"role": "user", "content": "바나나는 원래 하얀색이야?"},
]
encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
✨ 主要特性
- 該模型基於OpenChat3.5基礎模型進行訓練。
- 遵循[ChatML](https://github.com/openai/openai - python/blob/main/chatml.md)格式和**Alpaca(No - Input)**格式。
📦 安裝指南
文檔未提及具體安裝步驟,暫無法提供。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("maywell/koOpenChat-sft")
tokenizer = AutoTokenizer.from_pretrained("maywell/koOpenChat-sft")
messages = [
{"role": "user", "content": "바나나는 원래 하얀색이야?"},
]
encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
📚 詳細文檔
模型詳情
屬性 |
詳情 |
基礎模型 |
OpenChat3.5 |
訓練設備 |
A100 80GB * 1 |
指令格式 |
遵循[ChatML](https://github.com/openai/openai - python/blob/main/chatml.md)格式和**Alpaca(No - Input)**格式 |
模型評估結果
詳細結果可查看[此處](https://huggingface.co/datasets/open - llm - leaderboard/details_maywell__koOpenChat - sft)
指標 |
值 |
平均值 |
51.36 |
ARC (25 - shot) |
59.81 |
HellaSwag (10 - shot) |
78.73 |
MMLU (5 - shot) |
61.32 |
TruthfulQA (0 - shot) |
51.24 |
Winogrande (5 - shot) |
76.4 |
GSM8K (5 - shot) |
24.18 |
DROP (3 - shot) |
7.82 |
📄 許可證
本項目採用CC - BY - SA 4.0許可證。
🤝 支持作者
시나트라는個人項目,由一人獨立開發。如果您喜歡這個模型,不妨提供一些研究資金支持哦。

如果您想成為贊助商,請在Telegram上聯繫AlzarTakkarsen。