🚀 germeo-7b-laser
German-English理解能力を備え、ドイツ語のみで応答するモデルで、Hermeo-7Bからマージされました。
🚀 クイックスタート
このモデルは、レーザーとそれが言語理解に与える影響に関する初期実験です。一般的に言語理解能力を向上させます。仮説として、英語での応答確率を低下させ、ドイツ語での応答確率を増加させることが考えられます。モデル内部のドイツ語能力が強化されます。
✨ 主な機能
- German-English理解能力を備え、ドイツ語のみで応答する。
- レーザーを用いた実験により、言語理解能力が向上。
- モデル内部のドイツ語能力が強化される。
📚 ドキュメント
モデルの詳細
属性 |
详情 |
モデルタイプ |
因果的デコーダーのみのトランスフォーマー言語モデル |
マージ元 |
leo-mistral-hessianai-7b-chat と DPOpenHermes-7B-v2 |
言語 |
英語理解能力を備えたドイツ語応答 |
レーザーデータ |
LeoLM/OpenSchnabeltier |
これはレーザーとその言語理解への影響に関する初期実験です。一般的に言語理解能力を向上させます。仮説として、英語での応答確率を低下させ、ドイツ語での応答確率を増加させることが考えられます。モデル内部のドイツ語能力が強化されます。
謝辞
このモデルの作成とトレーニングを可能にしてくれたすべての人に感謝します。
プロンプトフォーマット
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
prompt_template = """<|im_start|>system
Du bist ein hilfreicher Assistent.<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant"""
prompt = "Schreibe eine Stellenanzeige für Data Scientist bei AXA!"
final_prompt = prompt_template.format(prompt=prompt)
モデルを応答のみに制限する
これを解決するには、カスタムの停止条件を実装する必要があります。
from transformers import StoppingCriteria
class GermeoStoppingCriteria(StoppingCriteria):
def __init__(self, target_sequence, prompt):
self.target_sequence = target_sequence
self.prompt=prompt
def __call__(self, input_ids, scores, **kwargs):
generated_text = tokenizer.decode(input_ids[0])
generated_text = generated_text.replace(self.prompt,'')
if self.target_sequence in generated_text:
return True
return False
def __len__(self):
return 1
def __iter__(self):
yield self
これは、入力プロンプト(モデルに与えられた形式)と停止条件(この場合は im_end トークン)を期待します。単に生成に追加します。
generation_output = model.generate(
tokens,
streamer=streamer,
max_new_tokens=1012,
stopping_criteria=GermeoStoppingCriteria("<|im_end|>", prompt_template.format(prompt=prompt))
)
ドイツ語のベンチマーク
ドイツ語タスク: |
MMLU-DE |
Hellaswag-DE |
ARC-DE |
平均 |
モデル / ショット数: |
(5ショット) |
(10ショット) |
(24ショット) |
|
7Bパラメータ |
|
|
|
|
llama-2-7b |
0.400 |
0.513 |
0.381 |
0.431 |
leo-hessianai-7b |
0.400 |
0.609 |
0.429 |
0.479 |
bloom-6b4-clp-german |
0.274 |
0.550 |
0.351 |
0.392 |
mistral-7b |
0.524 |
0.588 |
0.473 |
0.528 |
leo-mistral-hessianai-7b |
0.481 |
0.663 |
0.485 |
0.543 |
leo-mistral-hessianai-7b-chat |
0.458 |
0.617 |
0.465 |
0.513 |
DPOpenHermes-7B-v2 |
0.517 |
0.603 |
0.515 |
0.545 |
hermeo-7b |
0.511 |
0.668 |
0.528 |
0.569 |
germeo-7b-laser (このモデル) |
? |
? |
? |
? |
13Bパラメータ |
|
|
|
|
llama-2-13b |
0.469 |
0.581 |
0.468 |
0.506 |
leo-hessianai-13b |
0.486 |
0.658 |
0.509 |
0.551 |
70Bパラメータ |
|
|
|
|
llama-2-70b |
0.597 |
0.674 |
0.561 |
0.611 |
leo-hessianai-70b |
0.653 |
0.721 |
0.600 |
0.658 |
モデルは明示的に要求されない限り英語のテキストを生成しませんが、英語のベンチマークでのパフォーマンスは依然として高いです。
英語のベンチマーク
英語タスク: |
MMLU |
Hellaswag |
ARC |
平均 |
モデル / ショット数: |
(5ショット) |
(10ショット) |
(24ショット) |
|
llama-2-7b |
0.466 |
0.786 |
0.530 |
0.594 |
leolm-hessianai-7b |
0.423 |
0.759 |
0.522 |
0.568 |
bloom-6b4-clp-german |
0.264 |
0.525 |
0.328 |
0.372 |
mistral-7b |
0.635 |
0.832 |
0.607 |
0.691 |
leolm-mistral-hessianai-7b |
0.550 |
0.777 |
0.518 |
0.615 |
hermeo-7b |
0.601 |
0.821 |
0.620 |
0.681 |
germeo-7b-laser (このモデル) |
0.601 |
0.828 |
0.608 |
0.679 |
詳細な結果はこちらで確認できます。
メトリック |
値 |
平均 |
62.82 |
AI2 Reasoning Challenge (25-Shot) |
60.75 |
HellaSwag (10-Shot) |
82.81 |
MMLU (5-Shot) |
60.57 |
TruthfulQA (0-shot) |
53.83 |
Winogrande (5-shot) |
75.61 |
GSM8k (5-shot) |
43.37 |
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。