🚀 Chocolatine-2-14B-Instruct-v2.0.3
Chocolatine-2-14B-Instruct-v2.0.3 是对合并模型 jpacifico/Chocolatine-2-merged-qwen25arch(Qwen-2.5-14B 架构)进行直接偏好优化(DPO)微调得到的模型。微调使用了 jpacifico/french-orca-dpo-pairs-revised 基于人类反馈的强化学习(RLHF)数据集。以法语进行训练还提升了模型的整体能力。
💡 使用提示:窗口上下文支持高达 128K 个标记。
✨ 主要特性
🇫🇷 法国大语言模型排行榜表现
- 更新时间:2025-04-25
- 排名情况:在法国政府的 大语言模型排行榜 所有类别中排名前三。

🇫🇷 MT-Bench-French 基准测试
Chocolatine-2 在 MT-Bench-French 基准测试中表现优于其先前版本以及基础架构 Qwen-2.5 模型。该基准测试结合 multilingual-mt-bench 使用,并以 GPT-4-Turbo 作为大语言模型评判器。开发者的目标是使该模型在法语上达到 GPT-4o-mini 的性能,根据此基准测试,此版本已接近 OpenAI 模型的性能。
########## 第一轮 ##########
得分
模型 轮次
gpt-4o-mini 1 9.287500
Chocolatine-2-14B-Instruct-v2.0.3 1 9.112500
Qwen2.5-14B-Instruct 1 8.887500
Chocolatine-14B-Instruct-DPO-v1.2 1 8.612500
Phi-3.5-mini-instruct 1 8.525000
Chocolatine-3B-Instruct-DPO-v1.2 1 8.375000
DeepSeek-R1-Distill-Qwen-14B 1 8.375000
phi-4 1 8.300000
Phi-3-medium-4k-instruct 1 8.225000
gpt-3.5-turbo 1 8.137500
Chocolatine-3B-Instruct-DPO-Revised 1 7.987500
Meta-Llama-3.1-8B-Instruct 1 7.050000
vigostral-7b-chat 1 6.787500
Mistral-7B-Instruct-v0.3 1 6.750000
gemma-2-2b-it 1 6.450000
########## 第二轮 ##########
得分
模型 轮次
Chocolatine-2-14B-Instruct-v2.0.3 2 9.050000
gpt-4o-mini 2 8.912500
Qwen2.5-14B-Instruct 2 8.912500
Chocolatine-14B-Instruct-DPO-v1.2 2 8.337500
DeepSeek-R1-Distill-Qwen-14B 2 8.200000
phi-4 2 8.131250
Chocolatine-3B-Instruct-DPO-Revised 2 7.937500
Chocolatine-3B-Instruct-DPO-v1.2 2 7.862500
Phi-3-medium-4k-instruct 2 7.750000
gpt-3.5-turbo 2 7.679167
Phi-3.5-mini-instruct 2 7.575000
Meta-Llama-3.1-8B-Instruct 2 6.787500
Mistral-7B-Instruct-v0.3 2 6.500000
vigostral-7b-chat 2 6.162500
gemma-2-2b-it 2 6.100000
########## 平均分 ##########
得分
模型
gpt-4o-mini 9.100000
Chocolatine-2-14B-Instruct-v2.0.3 9.081250
Qwen2.5-14B-Instruct 8.900000
Chocolatine-14B-Instruct-DPO-v1.2 8.475000
DeepSeek-R1-Distill-Qwen-14B 8.287500
phi-4 8.215625
Chocolatine-3B-Instruct-DPO-v1.2 8.118750
Phi-3.5-mini-instruct 8.050000
Phi-3-medium-4k-instruct 7.987500
Chocolatine-3B-Instruct-DPO-Revised 7.962500
gpt-3.5-turbo 7.908333
Meta-Llama-3.1-8B-Instruct 6.918750
Mistral-7B-Instruct-v0.3 6.625000
vigostral-7b-chat 6.475000
gemma-2-2b-it 6.275000
📊 OpenLLM 排行榜(存档)
Chocolatine-2 是 OpenLLM 排行榜 上表现最佳的 14B 微调模型(与其他模型并列,平均得分 41.08)。
指标 |
值 |
平均分 |
41.08 |
IFEval |
70.37 |
BBH |
50.63 |
MATH Lvl 5 |
40.56 |
GPQA |
17.23 |
MuSR |
19.07 |
MMLU - PRO |
48.60 |
💻 使用示例
基础用法
你可以使用 Colab 笔记本 运行此模型。
你也可以使用以下代码运行 Chocolatine-2:
import transformers
from transformers import AutoTokenizer
message = [
{"role": "system", "content": "You are a helpful assistant chatbot."},
{"role": "user", "content": "What is a Large Language Model?"}
]
tokenizer = AutoTokenizer.from_pretrained(new_model)
prompt = tokenizer.apply_chat_template(message, add_generation_prompt=True, tokenize=False)
pipeline = transformers.pipeline(
"text-generation",
model=new_model,
tokenizer=tokenizer
)
sequences = pipeline(
prompt,
do_sample=True,
temperature=0.7,
top_p=0.9,
num_return_sequences=1,
max_length=200,
)
print(sequences[0]['generated_text'])
📚 详细文档
局限性
Chocolatine-2 模型系列是一个快速演示,表明基础模型可以轻松微调以实现出色的性能。但该模型没有任何审核机制。
属性 |
详情 |
模型类型 |
大语言模型(LLM) |
训练数据 |
jpacifico/french-orca-dpo-pairs-revised |
开发者 |
Jonathan Pacifico, 2025 |
支持语言 |
法语、英语 |
许可证 |
Apache-2.0 |
此项目由法国团队用心打造 ❤️。