🚀 希臘語Meltemi指令大語言模型
Meltemi 7B Instruct v1.5大語言模型(LLM)是Meltemi 7B v1.5的全新改進版指令微調模型。它為希臘語的自然語言處理帶來了更高效、更準確的解決方案。

✨ 主要特性
📦 安裝指南
暫未提供相關安裝步驟,可參考模型在Hugging Face上的官方文檔獲取詳細安裝信息。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
model.to(device)
messages = [
{"role": "system", "content": "Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη."},
{"role": "user", "content": "Πες μου αν έχεις συνείδηση."},
]
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
input_prompt = tokenizer(prompt, return_tensors='pt').to(device)
outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
print(tokenizer.batch_decode(outputs)[0])
messages.extend([
{"role": "assistant", "content": tokenizer.batch_decode(outputs)[0]},
{"role": "user", "content": "Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;"}
])
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
input_prompt = tokenizer(prompt, return_tensors='pt').to(device)
outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
print(tokenizer.batch_decode(outputs)[0])
注意事項
請確保在分詞後的提示中始終包含BOS標記。在某些評估或微調框架中,這可能不是默認設置。
📚 詳細文檔
指令格式
提示格式與Zephyr格式相同,可通過分詞器的聊天模板功能實現,具體示例見上述代碼。
評估
評估套件包含6個測試集,基於lighteval框架的分支實現。評估在少樣本設置下進行,與Open LLM排行榜的設置一致。
評估結果顯示,Meltemi 7B Instruct v1.5的新訓練和微調程序使所有希臘語測試集的性能平均提升了**+7.8%**,具體結果如下表所示:
|
醫學多選問答希臘語版 (15-shot) |
Belebele希臘語版 (5-shot) |
HellaSwag希臘語版 (10-shot) |
ARC挑戰希臘語版 (25-shot) |
真實問答多選2希臘語版 (0-shot) |
MMLU希臘語版 (5-shot) |
平均 |
Mistral 7B |
29.8% |
45.0% |
36.5% |
27.1% |
45.8% |
35% |
36.5% |
Meltemi 7B Instruct v1 |
36.1% |
56.0% |
59.0% |
44.4% |
51.1% |
34.1% |
46.8% |
Meltemi 7B Instruct v1.5 |
48.0% |
75.5% |
63.7% |
40.8% |
53.8% |
45.9% |
54.6% |
🔧 技術細節
模型信息
屬性 |
詳情 |
模型類型 |
基於Mistral 7B的指令微調大語言模型 |
訓練數據 |
97k偏好數據,包括89,730條希臘語偏好數據和7,342條英語偏好數據 |
分詞器 |
Mistral 7b分詞器,擴展了希臘語詞彙 |
上下文長度 |
8192 |
微調算法 |
Odds Ratio Preference Optimization (ORPO) |
對齊程序 |
基於TRL - Transformer Reinforcement Learning庫和Hugging Face微調指南 |
評估套件
評估套件包含以下測試集:
📄 許可證
本模型採用Apache-2.0許可證。
⚠️ 重要提示
本模型已與人類偏好對齊,但仍可能生成誤導性、有害和有毒的內容。使用時請謹慎評估輸出結果。
💡 使用建議
在使用模型進行推理時,可根據具體任務調整max_new_tokens
和do_sample
等參數,以獲得更符合需求的輸出。
致謝
ILSP團隊使用了亞馬遜的雲計算服務,該服務通過GRNET在OCRE雲框架下為希臘學術和研究社區提供。
引用
@misc{voukoutis2024meltemiopenlargelanguage,
title={Meltemi: The first open Large Language Model for Greek},
author={Leon Voukoutis and Dimitris Roussis and Georgios Paraskevopoulos and Sokratis Sofianopoulos and Prokopis Prokopidis and Vassilis Papavasileiou and Athanasios Katsamanis and Stelios Piperidis and Vassilis Katsouros},
year={2024},
eprint={2407.20743},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2407.20743},
}