Openr1 Qwen 7B Italian
基于Qwen2.5-7B-Instruct微调的意大利语数学推理模型,优化了意大利语推理能力
下载量 63
发布时间 : 3/3/2025
模型简介
这是一个针对意大利语数学推理任务优化的语言模型,基于Qwen2.5-7B-Instruct微调,特别改进了意大利语环境下的逐步推理能力
模型特点
意大利语优化推理
针对意大利语环境特别优化,能生成更清晰的意大利语推理过程
数学问题求解
专注于数学方程求解和逻辑推理任务
长序列处理
支持最长4096 token的序列处理能力
模型能力
数学问题求解
逐步推理
意大利语文本生成
方程求解
使用案例
教育
数学问题解答
帮助学生理解并解决数学方程问题
能生成详细的解题步骤和验证过程
研究
数学推理研究
用于研究语言模型在数学推理方面的表现
🚀 OpenR1-Qwen-7B-意大利语版
这是基于 Qwen2.5-Instruct 在 WiroAI/dolphin-r1-Italian 数据集上微调得到的模型。它旨在为意大利语用户提供更优质的语言处理能力,解决在低资源语言场景下开源模型表现不佳的问题。

🚀 快速开始
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "OpenR1-Qwen-7B-Italian"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Trova il valore di $x$ che soddisfa l'equazione $4x+5 = 6x+7$."
messages = [
{"role": "system", "content": "Si prega di ragionare passo dopo passo prima di rispondere."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
<|begin_of_thought|>
Ok, allora devo risolvere l'equazione 4x + 5 uguale a 6x + 7 per x.
Mmm, vediamo. Ricordo dalle lezioni di algebra che quando hai un'equazione come questa, vuoi isolare la variabile su un lato.
Probabilmente significa portare tutti i termini con la x da una parte e le costanti dall'altra. Cerchiamo di ricordare i passaggi esatti.
Innanzitutto, forse posso sottrarre 4x da entrambi i lati per eliminare il 4x a sinistra. Proviamo. Se sottraggo 4x da entrambi i lati, otterrei:
4x + 5 - 4x = 6x + 7 - 4x
Semplificando entrambi i lati, il 4x e il -4x sul lato sinistro si annullano, lasciando solo 5. Sul lato destro, 6x meno 4x fa 2x. Quindi ora l'equazione è:
5 = 2x + 7\n\nOk, sembra più semplice. Ora, devo ottenere x da sola.
Il termine costante al lato destro è 7, quindi forse posso sottrarre 7 da entrambi i lati per sbarazzarmene.
Facciamolo: 5 - 7 = 2x + 7 - 7\n\nSemplificando entrambi i lati: 5 - 7 fa -2, e 7 - 7 si annulla, lasciando 2x.
Quindi ora abbiamo: -2 = 2x
Mmm, quindi 2x è uguale a -2. Per risolvere per x, dovrei dividere entrambi i lati per 2. Verifichiamo:
(-2) / 2 = (2x)/2
Che si semplifica in: -1 = x
Quindi x è uguale a -1. Vediamo se ha senso. Sostituiamo x = -1 nell'equazione originale per verificare.
Lato sinistro: 4*(-1) + 5 = -4 + 5 = 1
Lato destro: 6*(-1) + 7 = -6 + 7 = 1
Oh, entrambi i lati sono uguali a 1. Funziona! Quindi x = -1 è effettivamente la soluzione corretta.
Aspetta, ma voglio assicurarmi di non aver fatto errori nei miei passaggi. Ripercorriamo di nuovo ogni passaggio.
Equazione originale: 4x + 5 = 6x + 7
Passaggio 1: Sottrai 4x da entrambi i lati. Questo dà 5 = 2x + 7. Sembra giusto perché 4x - 4x è 0, quindi rimane 5, e 6x - 4x è 2x.
Passaggio 2: Sottrai 7 da entrambi i lati. Questo dà 5 - 7 = 2x, che è -2 = 2x. Corretto.
Passaggio 3: Dividi entrambi i lati per 2. -2 diviso per 2 è -1, quindi x = -1. Sì, torna tutto.
Un altro modo per affrontarlo potrebbe essere quello di sottrarre prima 5 da entrambi i lati invece di sottrarre 4x.
Proviamo questo metodo per confermare.\n\nPartendo da 4x + 5 = 6x + 7
Sottrai 5 da entrambi i lati: 4x = 6x + 2
Ora, sottrai 6x da entrambi i lati: 4x - 6x = 2
Che dà -2x = 2\n\nDividi entrambi i lati per -2: x = 2 / (-2) = -1
Stesso risultato. Ok, quindi sia che io sottragga prima 4x o 5, finisco comunque con x = -1. Questo mi dà più fiducia che la soluzione sia corretta.
In alternativa, potrei anche usare l'addizione di equazioni. Vediamo. Se voglio avere tutti i termini con x su un lato e le costanti sull'altro, posso riorganizzare l'equazione iniziale.
Sottrai 4x e 7 da entrambi i lati contemporaneamente.\n\nAspetta, forse no. Pensiamoci. L'idea è quella di spostare tutti i termini con x a sinistra e le costanti a destra.
Quindi partendo da 4x + 5 = 6x + 7\n\nSe sottraggo 4x da entrambi i lati, come ho fatto prima, ottengo 5 = 2x + 7.
In alternativa, se sottraggo 6x e 5 da entrambi i lati, sarebbe: 4x + 5 - 6x - 5 = 6x + 7 - 6x - 5
Semplificando il lato sinistro: (4x - 6x) + (5 - 5) = -2x + 0 = -2x
Lato destro: (6x - 6x) + (7 - 5) = 0 + 2 = 2
Quindi, -2x = 2, portando a x = -1. Stessa risposta. Quindi indipendentemente dal metodo, è coerente.
Un altro controllo: visualizziamo l'equazione. Il lato sinistro è 4x + 5, che è una linea con pendenza 4 e intercetta y a 5.
Il lato destro è 6x + 7, una linea con pendenza 6 e intercetta y a 7. L'equazione chiede dove queste due linee si intersecano.
Poiché hanno pendenze diverse, dovrebbero intersecarsi esattamente in un punto. La nostra soluzione x = -1 è dove si incrociano.
Verifichiamo con un grafico approssimativo.
A x = -1, il lato sinistro è 4*(-1) + 5 = -4 + 5 = 1. Il lato destro è 6*(-1) + 7 = -6 + 7 = 1. Quindi entrambe le linee passano per ( -1, 1 ). Ha senso.
Se le linee avessero la stessa pendenza, sarebbero parallele e non si intersecherebbero mai, ma poiché le loro pendenze sono diverse (4 contro 6), devono intersecarsi esattamente una volta.
Pertanto, x = -1 è l'unica soluzione. C'è qualche possibilità che abbia commesso un errore aritmetico? Ricontrolliamo di nuovo ogni passaggio.
Equazione originale: 4x + 5 = 6x + 7
Sottrai 4x: 5 = 2x + 7 Sottrai 7: -2 = 2x Dividi per 2: -1 = x
Tutte le operazioni sono aritmetiche semplici. Sottrarre 4x e 7, quindi dividere per 2. Nessun problema lì. In alternativa, se inserisco x = -1 nell'equazione originale, come ho fatto prima, entrambi i lati sono uguali a 1, quindi funziona.
Penso che sia completo. Non riesco a vedere errori nel mio ragionamento. Tutti i diversi metodi portano alla stessa risposta e la verifica sostituendo nell'equazione originale conferma che è corretta.
Pertanto, sono sicuro che x = -1 sia la soluzione giusta.
**Risposta finale** Il valore di \\( x \\) che soddisfa l'equazione è \\boxed{-1}.
<|end_of_thought|>
<|begin_of_solution|>
Per risolvere l'equazione (4x + 5 = 6x + 7) per (x):
1. Sottrai (4x) da entrambi i lati: [4x + 5 - 4x = 6x + 7 - 4x]
Semplificando, otteniamo: [5 = 2x + 7]
2. Sottrai 7 da entrambi i lati: [5 - 7 = 2x + 7 - 7]
Semplificando, otteniamo: [-2 = 2x]
3. Dividi entrambi i lati per 2: [-2/2 = 2x/2]
Semplificando, otteniamo: [-1 = x]
Verifica sostituendo (x = -1) nell'equazione originale:
- Lato sinistro: (4(-1) + 5 = -4 + 5 = 1)
- Lato destro: (6(-1) + 7 = -6 + 7 = 1)
Entrambi i lati sono uguali a 1, confermando che la soluzione è corretta.
<|end_of_solution|>
✨ 主要特性
- 推理能力提升:相较于DeepSeek的推理模型,该模型在意大利语环境下的推理过程有了轻微改进,思考更加清晰。
- 实验性探索:此模型是为实验目的而训练的,欢迎进行各种基准评估,以推动开源模型在意大利语等低资源语言上的发展。
📦 安装指南
文档未提及安装步骤,暂不提供相关内容。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "OpenR1-Qwen-7B-Italian"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Trova il valore di $x$ che soddisfa l'equazione $4x+5 = 6x+7$."
messages = [
{"role": "system", "content": "Si prega di ragionare passo dopo passo prima di rispondere."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
高级用法
文档未提及高级用法相关代码,暂不提供相关内容。
📚 详细文档
概述
- DeepSeek的蒸馏模型有时即使在使用其他语言进行提示时,仍会使用中文或英语进行推理。
- 开源模型在相对低资源语言上仍有改进空间。
- 本项目旨在复现R1模型,并为社区做出贡献。
训练
- 我们在 WiroAI/dolphin-r1-Italian 数据集上对模型进行了2个epoch的训练。使用的学习率为1e - 5,最大序列长度为4096。训练采用余弦学习率调度策略,热身阶段为10%。
- 训练在8xA6000 ADA集群上进行,耗时5天。
- 通常,R1团队会使用 lighteval 将OpenR1模型的性能与DeepSeek-Distill-Qwen-7B和OpenThinker-7B进行比较。然而,这些数据集仅面向数学领域,因此为避免得出片面结论,我们不会披露默认的评估结果。
你可以在以下链接找到训练和评估代码:https://github.com/huggingface/open-r1/
评估
- 我们观察到该模型的推理过程有了轻微改进,与DeepSeek的推理模型相比,它在意大利语环境下思考更加清晰。
- 此模型是为实验目的而训练的,欢迎进行各种基准评估。请注意,与普通模型相比,该模型会生成更多的token,并且在推理过程中会消耗更多的显存。
- 如果你愿意对该模型进行评估,请确保允许模型生成足够的token。限制模型输出少于4000个token的生成请求会导致结果不佳。
- 我们相信,通过共享和实验,民主化且在文化上得到改进的开源模型将会不断发展!
🔧 技术细节
文档未提供详细技术细节,暂不提供相关内容。
📄 许可证
本项目采用Apache 2.0许可证。
🤗 社区
我们要感谢Huggingface的工作人员以及所有为Open - R1项目做出贡献的人!
引用
@article{WiroAI,
title={WiroAI/OpenR1-Qwen-7B-Italian,
author={Abdullah Bezir, Cengiz Asmazoğlu},
year={2025},
url={https://huggingface.co/WiroAI/OpenR1-Qwen-7B-Italian}
}
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98