🚀 Polka-1.1B-Chat
eryk-mazus/polka-1.1b-chat
是首個經過訓練的波蘭語模型,可作為實用的對話助手,並且能夠在本地運行。該模型基於 TinyLlama-1.1B,採用了自定義的擴展分詞器,能更高效地生成波蘭語文本,還在 57 億個標記上進行了額外的預訓練。之後,它在大約 6 萬個合成生成並經過機器翻譯的多輪對話上進行了微調,並在此基礎上執行了 直接偏好優化(DPO)。
上下文大小:4096 個標記

✨ 主要特性
- 首個可本地運行的波蘭語對話助手模型。
- 基於 TinyLlama-1.1B,採用自定義擴展分詞器,高效生成波蘭語文本。
- 經過額外預訓練和微調,執行 DPO 優化。
📦 安裝指南
文檔未提及安裝步驟,暫不提供。
💻 使用示例
基礎用法
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
model_name = "eryk-mazus/polka-1.1b-chat"
tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=True)
tokenizer.pad_token = tokenizer.eos_token
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16 if torch.cuda.is_bf16_supported() else torch.float16,
device_map="auto"
)
streamer = TextStreamer(tokenizer, skip_prompt=True)
system_prompt = "Jesteś pomocnym asystentem."
chat = [{"role": "system", "content": system_prompt}]
user_input = "Napisz krótką piosenkę o programowaniu."
chat.append({"role": "user", "content": user_input})
inputs = tokenizer.apply_chat_template(chat, add_generation_prompt=True, return_tensors="pt")
first_param_device = next(model.parameters()).device
inputs = inputs.to(first_param_device)
with torch.no_grad():
outputs = model.generate(
inputs,
pad_token_id=tokenizer.eos_token_id,
max_new_tokens=512,
temperature=0.2,
repetition_penalty=1.15,
top_p=0.95,
do_sample=True,
streamer=streamer,
)
new_tokens = outputs[0, inputs.size(1):]
response = tokenizer.decode(new_tokens, skip_special_tokens=True)
chat.append({"role": "assistant", "content": response})
高級用法
該模型也能與 vLLM 無縫協作。
📚 詳細文檔
提示格式
此模型採用 ChatML 作為提示格式:
<|im_start|>system
Jesteś pomocnym asystentem.
<|im_start|>user
Jakie jest dzienne zapotrzebowanie kaloryczne dorosłej osoby?<|im_end|>
<|im_start|>assistant
Dla dorosłych osób zaleca się spożywanie około 2000-3000 kcal dziennie, aby utrzymać optymalne zdrowie i dobre samopoczucie.<|im_end|>
這個提示可以作為 聊天模板 使用,這意味著你可以使用 tokenizer.apply_chat_template()
方法來格式化消息,如上述示例所示。
📄 許可證
本項目採用 MIT 許可證。
📋 模型信息
屬性 |
詳情 |
模型類型 |
基於 TinyLlama-1.1B 的波蘭語對話模型 |
訓練數據 |
57 億個標記的預訓練數據,約 6 萬個合成生成並機器翻譯的多輪對話微調數據 |
數據集 |
eryk-mazus/polka-dpo-v1 |
上下文大小 |
4096 個標記 |