🚀 Occiglot-7B-DE-EN-Instruct
西洋諸言語に対応した多言語モデルです。英語、ドイツ語、コードをサポートし、西洋地域の言語処理に特化しています。

Occiglot-7B-DE-EN-Instruct は、Occiglot Research Collective によって開発された、英語とドイツ語をサポートする70億パラメータの生成型言語モデル occiglot-7b-eu5 の命令調整版です。このモデルは、1億8000万トークンの追加の多言語およびコード命令で学習されています。ただし、このモデルは安全性に関する調整が行われていないため、問題のある出力を生成する可能性があります。
これは、多言語言語モデルに関する継続的なオープンリサーチプロジェクトの最初のリリースです。独自の言語用のモデルを学習させたい場合や評価に取り組んでいる場合は、お問い合わせいただくか、Discordサーバー に参加してください。私たちは協力を歓迎しています!
特別な感謝を Disco Research、Jan Philipp Harries、および Björn Plüster に送ります。彼らは私たちとドイツ語のデータセットを共有してくれました。
🚀 クイックスタート
このモデルは、chatml命令テンプレートを使用して学習されています。transformersのチャットテンプレート機能を使用して対話することができます。生成にはランダム性が含まれるため、再現性のためにシードを設定します。
基本的な使用法
>>> from transformers import AutoTokenizer, MistralForCausalLM, set_seed
>>> tokenizer = AutoTokenizer.from_pretrained("occiglot/occiglot-7b-de-en-instruct")
>>> model = MistralForCausalLM.from_pretrained('occiglot/occiglot-7b-de-en-instruct')
>>> set_seed(42)
>>> messages = [
>>> {"role": "system", 'content': 'You are a helpful assistant. Please give short and concise answers.'},
>>> {"role": "user", "content": "Wer ist der deutsche Bundeskanzler?"},
>>> ]
>>> tokenized_chat = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_dict=False, return_tensors='pt',)
>>> set_seed(42)
>>> outputs = model.generate(tokenized_chat.to('cuda'), max_new_tokens=200,)
>>> tokenizer.decode(out[0][len(tokenized_chat[0]):])
'Der deutsche Bundeskanzler ist Olaf Scholz.'
✨ 主な機能
- 英語、ドイツ語、コードをサポートする多言語モデル。
- 命令調整により、特定の指示に沿った回答を生成できる。
📚 ドキュメント
モデル詳細
データセット
学習データは、トークンの総数に基づいて英語とドイツ語で均等に分割されています。Disco Research、Jan Philipp Harries、および Björn Plüster がデータセットを共有してくれたことに感謝します。
英語とコード
ドイツ語
学習設定
- 8台のH100での完全な命令微調整。
- 0.6 - 4学習エポック(データセットのサンプリングに依存)。
- フレームワーク: axolotl
- 精度: bf16
- オプティマイザー: AdamW
- グローバルバッチサイズ: 128(コンテキスト長8192)
- ウォームアップ付きのコサインアニーリング
トークナイザー
トークナイザーは Mistral-7B-v0.1 から変更されていません。
評価
予備的な評価結果は以下の通りです。非英語の結果は、部分的に機械翻訳されたデータセットと英語のプロンプト(Belebele および Okapiフレームワーク)に基づいているため、注意して解釈する必要があります。現在、スペイン語、フランス語、ドイツ語、イタリア語に適したベンチマークの開発に取り組んでいます。
評価結果
全5言語
|
平均 |
arc_challenge |
belebele |
hellaswag |
mmlu |
truthfulqa |
Occiglot-7b-eu5 |
0.516895 |
0.508109 |
0.675556 |
0.718963 |
0.402064 |
0.279782 |
Occiglot-7b-eu5-instruct |
0.537799 |
0.53632 |
0.691111 |
0.731918 |
0.405198 |
0.32445 |
Occiglot-7b-de-en |
0.518337 |
0.496297 |
0.715111 |
0.669034 |
0.412545 |
0.298697 |
Occiglot-7b-de-en-instruct |
0.543173 |
0.530826 |
0.745778 |
0.67676 |
0.411326 |
0.351176 |
Leo-mistral-hessianai-7b |
0.484806 |
0.462103 |
0.653556 |
0.642242 |
0.379208 |
0.28692 |
Mistral-7b-v0.1 |
0.547111 |
0.528937 |
0.768444 |
0.682516 |
0.448253 |
0.307403 |
Mistral-7b-instruct-v0.2 |
0.56713 |
0.547228 |
0.741111 |
0.69455 |
0.422501 |
0.430262 |
英語
|
平均 |
arc_challenge |
belebele |
hellaswag |
mmlu |
truthfulqa |
Occiglot-7b-eu5 |
0.59657 |
0.530717 |
0.726667 |
0.789882 |
0.531904 |
0.403678 |
Occiglot-7b-eu5-instruct |
0.617905 |
0.558874 |
0.746667 |
0.799841 |
0.535109 |
0.449 |
Occiglot-7b-de-en |
0.518337 |
0.496297 |
0.715111 |
0.669034 |
0.412545 |
0.298697 |
Occiglot-7b-de-en-instruct |
0.543173 |
0.530826 |
0.745778 |
0.67676 |
0.411326 |
0.351176 |
Leo-mistral-hessianai-7b |
0.600949 |
0.522184 |
0.736667 |
0.777833 |
0.538812 |
0.429248 |
Mistral-7b-v0.1 |
0.668385 |
0.612628 |
0.844444 |
0.834097 |
0.624555 |
0.426201 |
Mistral-7b-instruct-v0.2 |
0.713657 |
0.637372 |
0.824444 |
0.846345 |
0.59201 |
0.668116 |
ドイツ語
|
平均 |
arc_challenge_de |
belebele_de |
hellaswag_de |
mmlu_de |
truthfulqa_de |
Occiglot-7b-eu5 |
0.508311 |
0.493584 |
0.646667 |
0.666631 |
0.483406 |
0.251269 |
Occiglot-7b-eu5-instruct |
0.531506 |
0.529512 |
0.667778 |
0.685205 |
0.488234 |
0.286802 |
Occiglot-7b-de-en |
0.540085 |
0.50556 |
0.743333 |
0.67421 |
0.514633 |
0.26269 |
Occiglot-7b-de-en-instruct |
0.566474 |
0.54491 |
0.772222 |
0.688407 |
0.515915 |
0.310914 |
Leo-mistral-hessianai-7b |
0.517766 |
0.474765 |
0.691111 |
0.682109 |
0.488309 |
0.252538 |
Mistral-7b-v0.1 |
0.527957 |
0.476476 |
0.738889 |
0.610589 |
0.529567 |
0.284264 |
Mistral-7b-instruct-v0.2 |
0.535215 |
0.485885 |
0.688889 |
0.622438 |
0.501961 |
0.376904 |
謝辞
事前学習モデルの学習は、42スーパーコンピュータ の計算グラントによってサポートされています。このスーパーコンピュータは、hessian AI、AIイノベーションラボ(ヘッセン州高等教育・研究・芸術省 (HMWK) と ヘッセン州内務・安全・国土安全保障省 (HMinD) によって資金提供されている)、および AIサービスセンター(ドイツ連邦経済事務・気候行動省 (BMWK) によって資金提供されている)の開発における中心的な要素です。学習データのキュレーションは、ドイツ連邦経済事務・気候行動省 (BMWK) によって資金提供された OpenGPT-X プロジェクト(プロジェクト番号 68GX21007D)を通じて部分的に支援されています。
📄 ライセンス
Apache 2.0
関連リンク
- https://huggingface.co/collections/occiglot/occiglot-eu5-7b-v01-65dbed502a6348b052695e01
- https://huggingface.co/NikolayKozloff/occiglot-7b-de-en-GGUF