🚀 Occiglot-7B-DE-EN-Instruct
Occiglot-7B-DE-EN-Instruct是一款面向西方的多語言生成式語言模型,支持德語和英語。它基於70億參數的occiglot-7b-eu5模型微調而來,在額外的1.8億多語言和代碼指令標記數據上進行訓練。不過,該模型未進行安全對齊,可能會生成有問題的輸出。
🚀 快速開始
Occiglot-7B-DE-EN-Instruct 是 occiglot-7b-eu5 的指令調優版本,這是一個由 Occiglot Research Collective 訓練的、具有70億參數的生成式語言模型,支持德語和英語。它在1.8億額外的多語言和代碼指令標記數據上進行了訓練。請注意,該模型未進行安全對齊,可能會生成有問題的輸出。
這是一個正在進行的多語言語言模型開放研究項目的首次發佈。如果您想為自己的語言訓練模型或正在進行評估工作,請聯繫我們或加入我們的 Discord服務器。我們歡迎合作!
特別感謝 Disco Research、Jan Philipp Harries 和 Björn Plüster 與我們分享德語數據集。
✨ 主要特性
📦 安裝指南
文檔未提供安裝步驟,跳過該章節。
💻 使用示例
基礎用法
>>> from transformers import AutoTokenizer, MistralForCausalLM, set_seed
>>> tokenizer = AutoTokenizer.from_pretrained("occiglot/occiglot-7b-de-en-instruct")
>>> model = MistralForCausalLM.from_pretrained('occiglot/occiglot-7b-de-en-instruct')
>>> set_seed(42)
>>> messages = [
>>> {"role": "system", 'content': 'You are a helpful assistant. Please give short and concise answers.'},
>>> {"role": "user", "content": "Wer ist der deutsche Bundeskanzler?"},
>>> ]
>>> tokenized_chat = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_dict=False, return_tensors='pt',)
>>> set_seed(42)
>>> outputs = model.generate(tokenized_chat.to('cuda'), max_new_tokens=200,)
>>> tokenizer.decode(out[0][len(tokenized_chat[0]):])
'Der deutsche Bundeskanzler ist Olaf Scholz.'
高級用法
文檔未提供高級用法示例,跳過該部分。
📚 詳細文檔
模型詳情
數據集
訓練數據根據總標記數在德語和英語之間平均分配。感謝 Disco Research、Jan Philipp Harries 和 Björn Plüster 向我們提供他們的數據集。
英語和代碼
德語
訓練設置
- 在8xH100上進行全指令微調。
- 0.6 - 4個訓練週期(取決於數據集採樣)。
- 框架:axolotl
- 精度:bf16
- 優化器:AdamW
- 全局批量大小:128(上下文長度為8192)
- 帶預熱的餘弦退火
分詞器
分詞器與 Mistral-7B-v0.1 保持一致。
評估
初步評估結果如下。請注意,非英語結果基於部分機器翻譯的數據集和英語提示(Belebele 和 Okapi框架),因此應謹慎解釋,例如,可能偏向於英語模型性能。目前,我們正在為西班牙語、法語、德語和意大利語開發更合適的基準測試。
評估結果
所有5種語言
|
平均 |
arc_challenge |
belebele |
hellaswag |
mmlu |
truthfulqa |
Occiglot-7b-eu5 |
0.516895 |
0.508109 |
0.675556 |
0.718963 |
0.402064 |
0.279782 |
Occiglot-7b-eu5-instruct |
0.537799 |
0.53632 |
0.691111 |
0.731918 |
0.405198 |
0.32445 |
Occiglot-7b-de-en |
0.518337 |
0.496297 |
0.715111 |
0.669034 |
0.412545 |
0.298697 |
Occiglot-7b-de-en-instruct |
0.543173 |
0.530826 |
0.745778 |
0.67676 |
0.411326 |
0.351176 |
Leo-mistral-hessianai-7b |
0.484806 |
0.462103 |
0.653556 |
0.642242 |
0.379208 |
0.28692 |
Mistral-7b-v0.1 |
0.547111 |
0.528937 |
0.768444 |
0.682516 |
0.448253 |
0.307403 |
Mistral-7b-instruct-v0.2 |
0.56713 |
0.547228 |
0.741111 |
0.69455 |
0.422501 |
0.430262 |
英語
|
平均 |
arc_challenge |
belebele |
hellaswag |
mmlu |
truthfulqa |
Occiglot-7b-eu5 |
0.59657 |
0.530717 |
0.726667 |
0.789882 |
0.531904 |
0.403678 |
Occiglot-7b-eu5-instruct |
0.617905 |
0.558874 |
0.746667 |
0.799841 |
0.535109 |
0.449 |
Occiglot-7b-de-en |
0.518337 |
0.496297 |
0.715111 |
0.669034 |
0.412545 |
0.298697 |
Occiglot-7b-de-en-instruct |
0.543173 |
0.530826 |
0.745778 |
0.67676 |
0.411326 |
0.351176 |
Leo-mistral-hessianai-7b |
0.600949 |
0.522184 |
0.736667 |
0.777833 |
0.538812 |
0.429248 |
Mistral-7b-v0.1 |
0.668385 |
0.612628 |
0.844444 |
0.834097 |
0.624555 |
0.426201 |
Mistral-7b-instruct-v0.2 |
0.713657 |
0.637372 |
0.824444 |
0.846345 |
0.59201 |
0.668116 |
德語
|
平均 |
arc_challenge_de |
belebele_de |
hellaswag_de |
mmlu_de |
truthfulqa_de |
Occiglot-7b-eu5 |
0.508311 |
0.493584 |
0.646667 |
0.666631 |
0.483406 |
0.251269 |
Occiglot-7b-eu5-instruct |
0.531506 |
0.529512 |
0.667778 |
0.685205 |
0.488234 |
0.286802 |
Occiglot-7b-de-en |
0.540085 |
0.50556 |
0.743333 |
0.67421 |
0.514633 |
0.26269 |
Occiglot-7b-de-en-instruct |
0.566474 |
0.54491 |
0.772222 |
0.688407 |
0.515915 |
0.310914 |
Leo-mistral-hessianai-7b |
0.517766 |
0.474765 |
0.691111 |
0.682109 |
0.488309 |
0.252538 |
Mistral-7b-v0.1 |
0.527957 |
0.476476 |
0.738889 |
0.610589 |
0.529567 |
0.284264 |
Mistral-7b-instruct-v0.2 |
0.535215 |
0.485885 |
0.688889 |
0.622438 |
0.501961 |
0.376904 |
🔧 技術細節
文檔未提供技術實現細節,跳過該章節。
📄 許可證
Apache 2.0
相關鏈接
- https://huggingface.co/collections/occiglot/occiglot-eu5-7b-v01-65dbed502a6348b052695e01
- https://huggingface.co/NikolayKozloff/occiglot-7b-de-en-GGUF