🚀 Synatra-7B-v0.3-RP🐧
Synatra-7B-v0.3-RP是一個基於特定基礎模型訓練的文本生成模型,可用於生成文本內容,在研究和非商業場景有一定應用價值。
🚀 快速開始
由於聊天模板已經包含了上述指令格式,你可以使用以下代碼:
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("maywell/Synatra-7B-v0.3-RP")
tokenizer = AutoTokenizer.from_pretrained("maywell/Synatra-7B-v0.3-RP")
messages = [
{"role": "user", "content": "바나나는 원래 하얀색이야?"},
]
encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
✨ 主要特性
📦 安裝指南
暫未提供具體安裝步驟相關內容。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("maywell/Synatra-7B-v0.3-RP")
tokenizer = AutoTokenizer.from_pretrained("maywell/Synatra-7B-v0.3-RP")
messages = [
{"role": "user", "content": "바나나는 원래 하얀색이야?"},
]
encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
📚 詳細文檔
模型詳情
模型基準測試
Ko-LLM-Leaderboard
正在進行基準測試...
為什麼它的基準分數比預覽版本低?
顯然,預覽模型使用的是無前綴的Alpaca風格提示,而ChatML有前綴。
詳細結果可查看此處
指標 |
值 |
平均值 |
57.38 |
ARC (25-shot) |
62.2 |
HellaSwag (10-shot) |
82.29 |
MMLU (5-shot) |
60.8 |
TruthfulQA (0-shot) |
52.64 |
Winogrande (5-shot) |
76.48 |
GSM8K (5-shot) |
21.15 |
DROP (3-shot) |
46.06 |
📄 許可證
本模型嚴格遵循非商業(cc-by-nc-4.0)使用許可。只要任何父倉庫中包含cc-by-nc-4.0許可,並且非商業使用規定仍然有效,無論其他模型的許可如何,“模型”(即基礎模型、衍生模型、合併/混合模型)都可以完全免費用於非商業目的。新模型發佈後,許可可能會更改。如果您要將此模型用於商業目的,請聯繫作者。
支持作者
Synatra是一個個人項目,由一人獨立開發。如果您喜歡這個模型,是否可以提供一些研究資金支持呢?

想成為贊助商?在Telegram上聯繫作者AlzarTakkarsen