🚀 Chocolatine-2-14B-Instruct-v2.0.3
Chocolatine-2-14B-Instruct-v2.0.3 是對合並模型 jpacifico/Chocolatine-2-merged-qwen25arch(Qwen-2.5-14B 架構)進行直接偏好優化(DPO)微調得到的模型。微調使用了 jpacifico/french-orca-dpo-pairs-revised 基於人類反饋的強化學習(RLHF)數據集。以法語進行訓練還提升了模型的整體能力。
💡 使用提示:窗口上下文支持高達 128K 個標記。
✨ 主要特性
🇫🇷 法國大語言模型排行榜表現
- 更新時間:2025-04-25
- 排名情況:在法國政府的 大語言模型排行榜 所有類別中排名前三。

🇫🇷 MT-Bench-French 基準測試
Chocolatine-2 在 MT-Bench-French 基準測試中表現優於其先前版本以及基礎架構 Qwen-2.5 模型。該基準測試結合 multilingual-mt-bench 使用,並以 GPT-4-Turbo 作為大語言模型評判器。開發者的目標是使該模型在法語上達到 GPT-4o-mini 的性能,根據此基準測試,此版本已接近 OpenAI 模型的性能。
########## 第一輪 ##########
得分
模型 輪次
gpt-4o-mini 1 9.287500
Chocolatine-2-14B-Instruct-v2.0.3 1 9.112500
Qwen2.5-14B-Instruct 1 8.887500
Chocolatine-14B-Instruct-DPO-v1.2 1 8.612500
Phi-3.5-mini-instruct 1 8.525000
Chocolatine-3B-Instruct-DPO-v1.2 1 8.375000
DeepSeek-R1-Distill-Qwen-14B 1 8.375000
phi-4 1 8.300000
Phi-3-medium-4k-instruct 1 8.225000
gpt-3.5-turbo 1 8.137500
Chocolatine-3B-Instruct-DPO-Revised 1 7.987500
Meta-Llama-3.1-8B-Instruct 1 7.050000
vigostral-7b-chat 1 6.787500
Mistral-7B-Instruct-v0.3 1 6.750000
gemma-2-2b-it 1 6.450000
########## 第二輪 ##########
得分
模型 輪次
Chocolatine-2-14B-Instruct-v2.0.3 2 9.050000
gpt-4o-mini 2 8.912500
Qwen2.5-14B-Instruct 2 8.912500
Chocolatine-14B-Instruct-DPO-v1.2 2 8.337500
DeepSeek-R1-Distill-Qwen-14B 2 8.200000
phi-4 2 8.131250
Chocolatine-3B-Instruct-DPO-Revised 2 7.937500
Chocolatine-3B-Instruct-DPO-v1.2 2 7.862500
Phi-3-medium-4k-instruct 2 7.750000
gpt-3.5-turbo 2 7.679167
Phi-3.5-mini-instruct 2 7.575000
Meta-Llama-3.1-8B-Instruct 2 6.787500
Mistral-7B-Instruct-v0.3 2 6.500000
vigostral-7b-chat 2 6.162500
gemma-2-2b-it 2 6.100000
########## 平均分 ##########
得分
模型
gpt-4o-mini 9.100000
Chocolatine-2-14B-Instruct-v2.0.3 9.081250
Qwen2.5-14B-Instruct 8.900000
Chocolatine-14B-Instruct-DPO-v1.2 8.475000
DeepSeek-R1-Distill-Qwen-14B 8.287500
phi-4 8.215625
Chocolatine-3B-Instruct-DPO-v1.2 8.118750
Phi-3.5-mini-instruct 8.050000
Phi-3-medium-4k-instruct 7.987500
Chocolatine-3B-Instruct-DPO-Revised 7.962500
gpt-3.5-turbo 7.908333
Meta-Llama-3.1-8B-Instruct 6.918750
Mistral-7B-Instruct-v0.3 6.625000
vigostral-7b-chat 6.475000
gemma-2-2b-it 6.275000
📊 OpenLLM 排行榜(存檔)
Chocolatine-2 是 OpenLLM 排行榜 上表現最佳的 14B 微調模型(與其他模型並列,平均得分 41.08)。
指標 |
值 |
平均分 |
41.08 |
IFEval |
70.37 |
BBH |
50.63 |
MATH Lvl 5 |
40.56 |
GPQA |
17.23 |
MuSR |
19.07 |
MMLU - PRO |
48.60 |
💻 使用示例
基礎用法
你可以使用 Colab 筆記本 運行此模型。
你也可以使用以下代碼運行 Chocolatine-2:
import transformers
from transformers import AutoTokenizer
message = [
{"role": "system", "content": "You are a helpful assistant chatbot."},
{"role": "user", "content": "What is a Large Language Model?"}
]
tokenizer = AutoTokenizer.from_pretrained(new_model)
prompt = tokenizer.apply_chat_template(message, add_generation_prompt=True, tokenize=False)
pipeline = transformers.pipeline(
"text-generation",
model=new_model,
tokenizer=tokenizer
)
sequences = pipeline(
prompt,
do_sample=True,
temperature=0.7,
top_p=0.9,
num_return_sequences=1,
max_length=200,
)
print(sequences[0]['generated_text'])
📚 詳細文檔
侷限性
Chocolatine-2 模型系列是一個快速演示,表明基礎模型可以輕鬆微調以實現出色的性能。但該模型沒有任何審核機制。
屬性 |
詳情 |
模型類型 |
大語言模型(LLM) |
訓練數據 |
jpacifico/french-orca-dpo-pairs-revised |
開發者 |
Jonathan Pacifico, 2025 |
支持語言 |
法語、英語 |
許可證 |
Apache-2.0 |
此項目由法國團隊用心打造 ❤️。