🚀 koOpenChat - sft🐧
koOpenChat - sft是一个基于特定技术开发的模型,它在相关领域有着独特的应用价值,能为用户提供特定场景下的服务。
🚀 快速开始
如果你想使用koOpenChat - sft模型,可以参考下面的代码示例。
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("maywell/koOpenChat-sft")
tokenizer = AutoTokenizer.from_pretrained("maywell/koOpenChat-sft")
messages = [
{"role": "user", "content": "바나나는 원래 하얀색이야?"},
]
encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
✨ 主要特性
- 该模型基于OpenChat3.5基础模型进行训练。
- 遵循[ChatML](https://github.com/openai/openai - python/blob/main/chatml.md)格式和**Alpaca(No - Input)**格式。
📦 安装指南
文档未提及具体安装步骤,暂无法提供。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("maywell/koOpenChat-sft")
tokenizer = AutoTokenizer.from_pretrained("maywell/koOpenChat-sft")
messages = [
{"role": "user", "content": "바나나는 원래 하얀색이야?"},
]
encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
📚 详细文档
模型详情
属性 |
详情 |
基础模型 |
OpenChat3.5 |
训练设备 |
A100 80GB * 1 |
指令格式 |
遵循[ChatML](https://github.com/openai/openai - python/blob/main/chatml.md)格式和**Alpaca(No - Input)**格式 |
模型评估结果
详细结果可查看[此处](https://huggingface.co/datasets/open - llm - leaderboard/details_maywell__koOpenChat - sft)
指标 |
值 |
平均值 |
51.36 |
ARC (25 - shot) |
59.81 |
HellaSwag (10 - shot) |
78.73 |
MMLU (5 - shot) |
61.32 |
TruthfulQA (0 - shot) |
51.24 |
Winogrande (5 - shot) |
76.4 |
GSM8K (5 - shot) |
24.18 |
DROP (3 - shot) |
7.82 |
📄 许可证
本项目采用CC - BY - SA 4.0许可证。
🤝 支持作者
시나트라는个人项目,由一人独立开发。如果您喜欢这个模型,不妨提供一些研究资金支持哦。

如果您想成为赞助商,请在Telegram上联系AlzarTakkarsen。