🚀 Synatra-7B-v0.3-RP🐧
Synatra-7B-v0.3-RP是一个基于特定基础模型训练的文本生成模型,可用于生成文本内容,在研究和非商业场景有一定应用价值。
🚀 快速开始
由于聊天模板已经包含了上述指令格式,你可以使用以下代码:
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("maywell/Synatra-7B-v0.3-RP")
tokenizer = AutoTokenizer.from_pretrained("maywell/Synatra-7B-v0.3-RP")
messages = [
{"role": "user", "content": "바나나는 원래 하얀색이야?"},
]
encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
✨ 主要特性
📦 安装指南
暂未提供具体安装步骤相关内容。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("maywell/Synatra-7B-v0.3-RP")
tokenizer = AutoTokenizer.from_pretrained("maywell/Synatra-7B-v0.3-RP")
messages = [
{"role": "user", "content": "바나나는 원래 하얀색이야?"},
]
encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
📚 详细文档
模型详情
模型基准测试
Ko-LLM-Leaderboard
正在进行基准测试...
为什么它的基准分数比预览版本低?
显然,预览模型使用的是无前缀的Alpaca风格提示,而ChatML有前缀。
详细结果可查看此处
指标 |
值 |
平均值 |
57.38 |
ARC (25-shot) |
62.2 |
HellaSwag (10-shot) |
82.29 |
MMLU (5-shot) |
60.8 |
TruthfulQA (0-shot) |
52.64 |
Winogrande (5-shot) |
76.48 |
GSM8K (5-shot) |
21.15 |
DROP (3-shot) |
46.06 |
📄 许可证
本模型严格遵循非商业(cc-by-nc-4.0)使用许可。只要任何父仓库中包含cc-by-nc-4.0许可,并且非商业使用规定仍然有效,无论其他模型的许可如何,“模型”(即基础模型、衍生模型、合并/混合模型)都可以完全免费用于非商业目的。新模型发布后,许可可能会更改。如果您要将此模型用于商业目的,请联系作者。
支持作者
Synatra是一个个人项目,由一人独立开发。如果您喜欢这个模型,是否可以提供一些研究资金支持呢?

想成为赞助商?在Telegram上联系作者AlzarTakkarsen