🚀 Bielik-4.5B-v3-Instruct
Bielik-4.5B-v3-Instructは、46億のパラメータを持つ生成型テキストモデルです。これは、Bielik-4.5B-v3をインストラクションファインチューニングしたバージョンです。このモデルは、オープンサイエンス/オープンソースプロジェクトのSpeakLeashと高性能コンピューティング(HPC)センターであるACK Cyfronet AGHとの独自の協力の証です。SpeakLeashチームによって選りすぐりされ、処理されたポーランド語のテキストコーパスを使用して開発およびトレーニングされ、この取り組みはポーランドの大規模コンピューティングインフラストラクチャ、特にPLGrid環境内のACK Cyfronet AGHというHPCセンターを活用しています。Bielik-4.5B-v3-Instructの作成とトレーニングは、計算グラント番号PLG/2024/017214およびPLG/2025/018338の支援によって推進され、AthenaとHeliosのスーパーコンピュータで行われ、大規模な機械学習プロセスに不可欠な最先端の技術と計算リソースの使用を可能にしました。その結果、このモデルはポーランド語を理解し、処理する卓越した能力を示し、正確な応答を提供し、さまざまな言語タスクを高精度で実行します。
📚 技術レポート: https://arxiv.org/abs/2505.02550
🚀 クイックスタート
このモデルは、ポーランド語のテキスト生成に最適です。以下のセクションで、その詳細をご紹介します。
✨ 主な機能
- ポーランド語のテキストを高精度に理解し、生成することができます。
- 独自のインストラクションセットとDPO-Positive法を用いてトレーニングされています。
- ChatMLをプロンプトフォーマットとして使用しています。
📦 インストール
このモデルは、transformers
ライブラリを使用して簡単にインストールできます。以下のコードを参考にしてください。
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model_name = "speakleash/Bielik-4.5B-v3-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16)
💻 使用例
基本的な使用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model_name = "speakleash/Bielik-4.5B-v3-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16)
messages = [
{"role": "system", "content": "Odpowiadaj krótko, precyzyjnie i wyłącznie w języku polskim."},
{"role": "user", "content": "Jakie mamy pory roku w Polsce?"},
{"role": "assistant", "content": "W Polsce mamy 4 pory roku: wiosna, lato, jesień i zima."},
{"role": "user", "content": "Która jest najcieplejsza?"}
]
input_ids = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = input_ids.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
高度な使用法
generated_ids = model.generate(model_inputs, max_new_tokens=2000, temperature=0.7, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
📚 ドキュメント
モデル
SpeakLeashチームは、ポーランド語の独自のインストラクションセットを作成しており、アノテーターによって継続的に拡張および改良されています。これらのインストラクションの一部は、手動で検証および修正され、トレーニングに使用されました。さらに、ポーランド語の高品質なインストラクションが限られているため、Bielik 11B v2.3を使用して合成インストラクションが生成され、トレーニングに使用されました。トレーニングに使用されたデータセットは、1900万を超えるインストラクションで構成され、120億を超えるトークンを含んでいました。
モデルをユーザーの好みに合わせるために、多くの異なる技術(DPO、PPO、KTO、SiMPO)をテストしました。最終的に、DPO-Positive法が採用され、生成された例と手動で修正された例の両方を使用し、メタモデルによってスコアリングされました。応答スタイルのさまざまな側面をカバーするために、111,000を超える異なる長さの例で構成されるデータセットが使用されました。このデータセットは、報酬モデルによってフィルタリングおよび評価され、選択されたものと拒否されたものの間に適切な差異があるインストラクションが選択されました。DPO-Pで導入された新しい機能は、マルチターン会話の導入です。
Bielikインストラクトモデルは、Krzysztof Ociepaによって実装されたオリジナルのオープンソースフレームワークであるALLaMoを使用してトレーニングされています。このフレームワークにより、ユーザーはLLaMAやMistralに似たアーキテクチャの言語モデルを高速かつ効率的にトレーニングすることができます。
モデルの説明
チャットテンプレート
Bielik-4.5B-v3-Instructは、ChatMLをプロンプトフォーマットとして使用しています。
例:
prompt = "<s><|im_start|> user\nJakie mamy pory roku?<|im_end|> \n<|im_start|> assistant\n"
completion = "W Polsce mamy 4 pory roku: wiosna, lato, jesień i zima.<|im_end|> \n"
このフォーマットは、apply_chat_template()
メソッドを介してチャットテンプレートとして利用可能です。
制限事項とバイアス
Bielik-4.5B-v3-Instructは、ベースモデルを簡単にファインチューニングして魅力的で有望なパフォーマンスを達成できることをすばやく実証するものです。このモデルには、モデレーションメカニズムがありません。私たちは、モデルがガードレールを尊重し、モデレーションされた出力を必要とする環境でのデプロイを可能にする方法でコミュニティと協力することを楽しみにしています。
Bielik-4.5B-v3-Instructは、事実に誤りのある出力を生成する可能性があり、事実に正確なデータを生成することに依存してはいけません。このモデルは、さまざまな公開データセットを使用してトレーニングされています。トレーニングデータをクリアするために多大な努力が払われていますが、このモデルが猥褻な、誤った、偏った、またはその他の不快な出力を生成する可能性があります。
引用
このモデルを引用する場合は、以下の形式を使用してください。
@misc{ociepa2025bielikv3smalltechnical,
title={Bielik v3 Small: Technical Report},
author={Krzysztof Ociepa and Łukasz Flis and Remigiusz Kinas and Krzysztof Wróbel and Adrian Gwoździej},
year={2025},
eprint={2505.02550},
archivePrefix={arXiv},
primaryClass={cs.LG},
url={https://arxiv.org/abs/2505.02550},
}
@misc{Bielik45Bv3i,
title = {Bielik-4.5B-v3-Instruct model card},
author = {Ociepa, Krzysztof and Flis, Łukasz and Kinas, Remigiusz and Gwoździej, Adrian and Wróbel, Krzysztof and {SpeakLeash Team} and {Cyfronet Team}},
year = {2025},
url = {https://huggingface.co/speakleash/Bielik-4.5B-v3-Instruct},
note = {Accessed: 2025-05-06}, % change this date
urldate = {2025-05-06} % change this date
}
モデルのトレーニングに関与した人物
このモデルは、SpeakLeashチーム全体の献身的な仕事なしには作成できませんでした。彼らの貢献は計り知れません。多くの人々の努力により、大量のポーランド語のコンテンツを収集し、オープンサイエンスのSpeakLeashプロジェクトとHPCセンターのACK Cyfronet AGHとの協力関係を築くことができました。モデルの作成に貢献した人物は、Sebastian Kondracki、Igor Ciuciura、Szymon Baczyński、Jacek Chwiła、Dominika Basaj、Kuba Sołtys、Karol Jezierski、Anna Przybył、Agnieszka Ratajska、Witold Wydmański、Izabela Babis、Nina Babisです。
ACK Cyfronet AGHチームのメンバーであるSzymon Mazurek、Marek Magryś、Mieszko Cholewa は、貴重なサポートと専門知識を提供してくれました。
私たちは、計算グラント番号PLG/2024/017214およびPLG/2025/018338の範囲内でコンピュータ設備とサポートを提供してくれたポーランドの高性能コンピューティングインフラストラクチャPLGrid(HPCセンター:ACK Cyfronet AGH)に感謝の意を表します。
お問い合わせ
ご質問やご提案がある場合は、ディスカッションタブをご利用ください。直接お問い合わせをしたい場合は、Discord SpeakLeashに参加してください。
📄 ライセンス
このモデルは、Apache 2.0ライセンスの下で提供されています。詳細については、利用規約を参照してください。