🚀 ギリシャ語向けMeltemi Instruct大規模言語モデル
私たちは、Meltemi 7B v1.5 の新しく改良された命令微調整版である、Meltemi 7B Instruct v1.5大規模言語モデル(LLM)を発表します。

🚀 クイックスタート
このモデルについて、以下で詳細な情報をご紹介します。
✨ 主な機能
モデル情報
命令フォーマット
プロンプトフォーマットは、Zephyrフォーマットと同じで、トークナイザのチャットテンプレート機能を介して以下のように利用できます。
評価
私たちが作成した評価セットには6つのテストセットが含まれており、lightevalフレームワークのフォークに基づいて実装されています。
私たちの評価セットには以下が含まれます:
私たちの評価は、Open LLMリーダーボードの設定と一致するフェデレーション学習設定で行われています。
Meltemi 7B Instruct v1.5の新しいトレーニングと微調整手順により、すべてのギリシャ語テストセットでのパフォーマンスが平均**+7.8%**向上していることがわかります。ギリシャ語テストセットの結果は以下の表に示されています。
属性 |
詳細 |
モデルタイプ |
Meltemi 7B Instruct v1.5大規模言語モデル |
トレーニングデータ |
89,730件のギリシャ語嗜好データ(主にHugging Face上の高品質データセットの翻訳版)と7,342件の英語嗜好データ |
|
Medical MCQA EL (15-shot) |
Belebele EL (5-shot) |
HellaSwag EL (10-shot) |
ARC-Challenge EL (25-shot) |
TruthfulQA MC2 EL (0-shot) |
MMLU EL (5-shot) |
平均 |
Mistral 7B |
29.8% |
45.0% |
36.5% |
27.1% |
45.8% |
35% |
36.5% |
Meltemi 7B Instruct v1 |
36.1% |
56.0% |
59.0% |
44.4% |
51.1% |
34.1% |
46.8% |
Meltemi 7B Instruct v1.5 |
48.0% |
75.5% |
63.7% |
40.8% |
53.8% |
45.9% |
54.6% |
倫理的な考慮事項
このモデルは人間の嗜好に合わせて調整されていますが、誤解を招く、有害な、有毒なコンテンツを生成する可能性があります。
謝辞
ILSPチームは、OCRE Cloudフレームワークの下でGRNETを介して提供された、ギリシャの学術および研究コミュニティ向けのAmazon Web Servicesを提供するAmazonのクラウドコンピューティングサービスを利用しました。
引用
@misc{voukoutis2024meltemiopenlargelanguage,
title={Meltemi: The first open Large Language Model for Greek},
author={Leon Voukoutis and Dimitris Roussis and Georgios Paraskevopoulos and Sokratis Sofianopoulos and Prokopis Prokopidis and Vassilis Papavasileiou and Athanasios Katsamanis and Stelios Piperidis and Vassilis Katsouros},
year={2024},
eprint={2407.20743},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2407.20743},
}
💻 使用例
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
model.to(device)
messages = [
{"role": "system", "content": "Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη."},
{"role": "user", "content": "Πες μου αν έχεις συνείδηση."},
]
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
input_prompt = tokenizer(prompt, return_tensors='pt').to(device)
outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
print(tokenizer.batch_decode(outputs)[0])
messages.extend([
{"role": "assistant", "content": tokenizer.batch_decode(outputs)[0]},
{"role": "user", "content": "Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;"}
])
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
input_prompt = tokenizer(prompt, return_tensors='pt').to(device)
outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
print(tokenizer.batch_decode(outputs)[0])
⚠️ 重要提示
トークナイズされたプロンプトには常にBOSトークンが含まれていることを確認してください。これは、すべての評価または微調整フレームワークでデフォルト設定になっているとは限りません。
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。