🚀 germeo-7b-laser
germeo-7b-laser 是一個從 Hermeo-7B 合併而來的模型,具備德英理解能力,但僅支持德語輸出。該模型是關於激光對語言理解影響的早期實驗,通常能提升語言理解能力。
🚀 快速開始
提示格式示例
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
prompt_template = """<|im_start|>system
Du bist ein hilfreicher Assistent.<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant"""
prompt = "Schreibe eine Stellenanzeige für Data Scientist bei AXA!"
final_prompt = prompt_template.format(prompt=prompt)
限制模型僅輸出回覆
要解決這個問題,你需要實現一個自定義停止標準:
from transformers import StoppingCriteria
class GermeoStoppingCriteria(StoppingCriteria):
def __init__(self, target_sequence, prompt):
self.target_sequence = target_sequence
self.prompt=prompt
def __call__(self, input_ids, scores, **kwargs):
generated_text = tokenizer.decode(input_ids[0])
generated_text = generated_text.replace(self.prompt,'')
if self.target_sequence in generated_text:
return True
return False
def __len__(self):
return 1
def __iter__(self):
yield self
然後,將格式化後的輸入提示和停止標準(在這種情況下是 <|im_end|>
標記)添加到生成過程中:
generation_output = model.generate(
tokens,
streamer=streamer,
max_new_tokens=1012,
stopping_criteria=GermeoStoppingCriteria("<|im_end|>", prompt_template.format(prompt=prompt))
)
✨ 主要特性
- 語言能力:具備德英理解能力,但僅支持德語輸出。
- 模型融合:由
leo-mistral-hessianai-7b-chat
和 DPOpenHermes-7B-v2
合併而來。
- 實驗特性:是關於激光對語言理解影響的早期實驗,通常能提升語言理解能力。
📚 詳細文檔
模型詳情
屬性 |
詳情 |
合併來源 |
leo-mistral-hessianai-7b-chat 和 DPOpenHermes-7B-v2 |
模型類型 |
因果解碼器式變壓器語言模型 |
支持語言 |
具備英語理解能力,輸出德語回覆 |
激光數據 |
LeoLM/OpenSchnabeltier |
這是一個關於激光及其對語言理解影響的早期實驗,總體上提升了語言理解能力。假設是它降低了英語回覆的概率,增加了德語回覆的概率,增強了模型內部的德語能力。後續會持續更新。
致謝
感謝所有參與使這個模型及其訓練成為可能的人:
德語基準測試
德語任務 |
MMLU-DE |
Hellaswag-DE |
ARC-DE |
平均 |
模型/少樣本學習 |
(5 次少樣本) |
(10 次少樣本) |
(24 次少樣本) |
|
7B 參數模型 |
|
|
|
|
llama-2-7b |
0.400 |
0.513 |
0.381 |
0.431 |
leo-hessianai-7b |
0.400 |
0.609 |
0.429 |
0.479 |
bloom-6b4-clp-german |
0.274 |
0.550 |
0.351 |
0.392 |
mistral-7b |
0.524 |
0.588 |
0.473 |
0.528 |
leo-mistral-hessianai-7b |
0.481 |
0.663 |
0.485 |
0.543 |
leo-mistral-hessianai-7b-chat |
0.458 |
0.617 |
0.465 |
0.513 |
DPOpenHermes-7B-v2 |
0.517 |
0.603 |
0.515 |
0.545 |
hermeo-7b |
0.511 |
0.668 |
0.528 |
0.569 |
germeo-7b-laser(本模型) |
? |
? |
? |
? |
13B 參數模型 |
|
|
|
|
llama-2-13b |
0.469 |
0.581 |
0.468 |
0.506 |
leo-hessianai-13b |
0.486 |
0.658 |
0.509 |
0.551 |
70B 參數模型 |
|
|
|
|
llama-2-70b |
0.597 |
0.674 |
0.561 |
0.611 |
leo-hessianai-70b |
0.653 |
0.721 |
0.600 |
0.658 |
儘管該模型在未明確要求的情況下不會生成英語文本,但在英語基準測試中的表現仍然不錯:
英語基準測試
英語任務 |
MMLU |
Hellaswag |
ARC |
平均 |
模型/少樣本學習 |
(5 次少樣本) |
(10 次少樣本) |
(24 次少樣本) |
|
llama-2-7b |
0.466 |
0.786 |
0.530 |
0.594 |
leolm-hessianai-7b |
0.423 |
0.759 |
0.522 |
0.568 |
bloom-6b4-clp-german |
0.264 |
0.525 |
0.328 |
0.372 |
mistral-7b |
0.635 |
0.832 |
0.607 |
0.691 |
leolm-mistral-hessianai-7b |
0.550 |
0.777 |
0.518 |
0.615 |
hermeo-7b |
0.601 |
0.821 |
0.620 |
0.681 |
germeo-7b-laser(本模型) |
0.601 |
0.828 |
0.608 |
0.679 |
詳細結果可查看 此處
指標 |
值 |
平均 |
62.82 |
AI2 推理挑戰(25 次少樣本) |
60.75 |
HellaSwag(10 次少樣本) |
82.81 |
MMLU(5 次少樣本) |
60.57 |
TruthfulQA(0 次少樣本) |
53.83 |
Winogrande(5 次少樣本) |
75.61 |
GSM8k(5 次少樣本) |
43.37 |
📄 許可證
本模型採用 Apache-2.0 許可證。