Openr1 Qwen 7B Italian
基於Qwen2.5-7B-Instruct微調的意大利語數學推理模型,優化了意大利語推理能力
下載量 63
發布時間 : 3/3/2025
模型概述
這是一個針對意大利語數學推理任務優化的語言模型,基於Qwen2.5-7B-Instruct微調,特別改進了意大利語環境下的逐步推理能力
模型特點
意大利語優化推理
針對意大利語環境特別優化,能生成更清晰的意大利語推理過程
數學問題求解
專注於數學方程求解和邏輯推理任務
長序列處理
支持最長4096 token的序列處理能力
模型能力
數學問題求解
逐步推理
意大利語文本生成
方程求解
使用案例
教育
數學問題解答
幫助學生理解並解決數學方程問題
能生成詳細的解題步驟和驗證過程
研究
數學推理研究
用於研究語言模型在數學推理方面的表現
🚀 OpenR1-Qwen-7B-意大利語版
這是基於 Qwen2.5-Instruct 在 WiroAI/dolphin-r1-Italian 數據集上微調得到的模型。它旨在為意大利語用戶提供更優質的語言處理能力,解決在低資源語言場景下開源模型表現不佳的問題。

🚀 快速開始
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "OpenR1-Qwen-7B-Italian"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Trova il valore di $x$ che soddisfa l'equazione $4x+5 = 6x+7$."
messages = [
{"role": "system", "content": "Si prega di ragionare passo dopo passo prima di rispondere."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
<|begin_of_thought|>
Ok, allora devo risolvere l'equazione 4x + 5 uguale a 6x + 7 per x.
Mmm, vediamo. Ricordo dalle lezioni di algebra che quando hai un'equazione come questa, vuoi isolare la variabile su un lato.
Probabilmente significa portare tutti i termini con la x da una parte e le costanti dall'altra. Cerchiamo di ricordare i passaggi esatti.
Innanzitutto, forse posso sottrarre 4x da entrambi i lati per eliminare il 4x a sinistra. Proviamo. Se sottraggo 4x da entrambi i lati, otterrei:
4x + 5 - 4x = 6x + 7 - 4x
Semplificando entrambi i lati, il 4x e il -4x sul lato sinistro si annullano, lasciando solo 5. Sul lato destro, 6x meno 4x fa 2x. Quindi ora l'equazione è:
5 = 2x + 7\n\nOk, sembra più semplice. Ora, devo ottenere x da sola.
Il termine costante al lato destro è 7, quindi forse posso sottrarre 7 da entrambi i lati per sbarazzarmene.
Facciamolo: 5 - 7 = 2x + 7 - 7\n\nSemplificando entrambi i lati: 5 - 7 fa -2, e 7 - 7 si annulla, lasciando 2x.
Quindi ora abbiamo: -2 = 2x
Mmm, quindi 2x è uguale a -2. Per risolvere per x, dovrei dividere entrambi i lati per 2. Verifichiamo:
(-2) / 2 = (2x)/2
Che si semplifica in: -1 = x
Quindi x è uguale a -1. Vediamo se ha senso. Sostituiamo x = -1 nell'equazione originale per verificare.
Lato sinistro: 4*(-1) + 5 = -4 + 5 = 1
Lato destro: 6*(-1) + 7 = -6 + 7 = 1
Oh, entrambi i lati sono uguali a 1. Funziona! Quindi x = -1 è effettivamente la soluzione corretta.
Aspetta, ma voglio assicurarmi di non aver fatto errori nei miei passaggi. Ripercorriamo di nuovo ogni passaggio.
Equazione originale: 4x + 5 = 6x + 7
Passaggio 1: Sottrai 4x da entrambi i lati. Questo dà 5 = 2x + 7. Sembra giusto perché 4x - 4x è 0, quindi rimane 5, e 6x - 4x è 2x.
Passaggio 2: Sottrai 7 da entrambi i lati. Questo dà 5 - 7 = 2x, che è -2 = 2x. Corretto.
Passaggio 3: Dividi entrambi i lati per 2. -2 diviso per 2 è -1, quindi x = -1. Sì, torna tutto.
Un altro modo per affrontarlo potrebbe essere quello di sottrarre prima 5 da entrambi i lati invece di sottrarre 4x.
Proviamo questo metodo per confermare.\n\nPartendo da 4x + 5 = 6x + 7
Sottrai 5 da entrambi i lati: 4x = 6x + 2
Ora, sottrai 6x da entrambi i lati: 4x - 6x = 2
Che dà -2x = 2\n\nDividi entrambi i lati per -2: x = 2 / (-2) = -1
Stesso risultato. Ok, quindi sia che io sottragga prima 4x o 5, finisco comunque con x = -1. Questo mi dà più fiducia che la soluzione sia corretta.
In alternativa, potrei anche usare l'addizione di equazioni. Vediamo. Se voglio avere tutti i termini con x su un lato e le costanti sull'altro, posso riorganizzare l'equazione iniziale.
Sottrai 4x e 7 da entrambi i lati contemporaneamente.\n\nAspetta, forse no. Pensiamoci. L'idea è quella di spostare tutti i termini con x a sinistra e le costanti a destra.
Quindi partendo da 4x + 5 = 6x + 7\n\nSe sottraggo 4x da entrambi i lati, come ho fatto prima, ottengo 5 = 2x + 7.
In alternativa, se sottraggo 6x e 5 da entrambi i lati, sarebbe: 4x + 5 - 6x - 5 = 6x + 7 - 6x - 5
Semplificando il lato sinistro: (4x - 6x) + (5 - 5) = -2x + 0 = -2x
Lato destro: (6x - 6x) + (7 - 5) = 0 + 2 = 2
Quindi, -2x = 2, portando a x = -1. Stessa risposta. Quindi indipendentemente dal metodo, è coerente.
Un altro controllo: visualizziamo l'equazione. Il lato sinistro è 4x + 5, che è una linea con pendenza 4 e intercetta y a 5.
Il lato destro è 6x + 7, una linea con pendenza 6 e intercetta y a 7. L'equazione chiede dove queste due linee si intersecano.
Poiché hanno pendenze diverse, dovrebbero intersecarsi esattamente in un punto. La nostra soluzione x = -1 è dove si incrociano.
Verifichiamo con un grafico approssimativo.
A x = -1, il lato sinistro è 4*(-1) + 5 = -4 + 5 = 1. Il lato destro è 6*(-1) + 7 = -6 + 7 = 1. Quindi entrambe le linee passano per ( -1, 1 ). Ha senso.
Se le linee avessero la stessa pendenza, sarebbero parallele e non si intersecherebbero mai, ma poiché le loro pendenze sono diverse (4 contro 6), devono intersecarsi esattamente una volta.
Pertanto, x = -1 è l'unica soluzione. C'è qualche possibilità che abbia commesso un errore aritmetico? Ricontrolliamo di nuovo ogni passaggio.
Equazione originale: 4x + 5 = 6x + 7
Sottrai 4x: 5 = 2x + 7 Sottrai 7: -2 = 2x Dividi per 2: -1 = x
Tutte le operazioni sono aritmetiche semplici. Sottrarre 4x e 7, quindi dividere per 2. Nessun problema lì. In alternativa, se inserisco x = -1 nell'equazione originale, come ho fatto prima, entrambi i lati sono uguali a 1, quindi funziona.
Penso che sia completo. Non riesco a vedere errori nel mio ragionamento. Tutti i diversi metodi portano alla stessa risposta e la verifica sostituendo nell'equazione originale conferma che è corretta.
Pertanto, sono sicuro che x = -1 sia la soluzione giusta.
**Risposta finale** Il valore di \\( x \\) che soddisfa l'equazione è \\boxed{-1}.
<|end_of_thought|>
<|begin_of_solution|>
Per risolvere l'equazione (4x + 5 = 6x + 7) per (x):
1. Sottrai (4x) da entrambi i lati: [4x + 5 - 4x = 6x + 7 - 4x]
Semplificando, otteniamo: [5 = 2x + 7]
2. Sottrai 7 da entrambi i lati: [5 - 7 = 2x + 7 - 7]
Semplificando, otteniamo: [-2 = 2x]
3. Dividi entrambi i lati per 2: [-2/2 = 2x/2]
Semplificando, otteniamo: [-1 = x]
Verifica sostituendo (x = -1) nell'equazione originale:
- Lato sinistro: (4(-1) + 5 = -4 + 5 = 1)
- Lato destro: (6(-1) + 7 = -6 + 7 = 1)
Entrambi i lati sono uguali a 1, confermando che la soluzione è corretta.
<|end_of_solution|>
✨ 主要特性
- 推理能力提升:相較於DeepSeek的推理模型,該模型在意大利語環境下的推理過程有了輕微改進,思考更加清晰。
- 實驗性探索:此模型是為實驗目的而訓練的,歡迎進行各種基準評估,以推動開源模型在意大利語等低資源語言上的發展。
📦 安裝指南
文檔未提及安裝步驟,暫不提供相關內容。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "OpenR1-Qwen-7B-Italian"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Trova il valore di $x$ che soddisfa l'equazione $4x+5 = 6x+7$."
messages = [
{"role": "system", "content": "Si prega di ragionare passo dopo passo prima di rispondere."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
高級用法
文檔未提及高級用法相關代碼,暫不提供相關內容。
📚 詳細文檔
概述
- DeepSeek的蒸餾模型有時即使在使用其他語言進行提示時,仍會使用中文或英語進行推理。
- 開源模型在相對低資源語言上仍有改進空間。
- 本項目旨在復現R1模型,併為社區做出貢獻。
訓練
- 我們在 WiroAI/dolphin-r1-Italian 數據集上對模型進行了2個epoch的訓練。使用的學習率為1e - 5,最大序列長度為4096。訓練採用餘弦學習率調度策略,熱身階段為10%。
- 訓練在8xA6000 ADA集群上進行,耗時5天。
- 通常,R1團隊會使用 lighteval 將OpenR1模型的性能與DeepSeek-Distill-Qwen-7B和OpenThinker-7B進行比較。然而,這些數據集僅面向數學領域,因此為避免得出片面結論,我們不會披露默認的評估結果。
你可以在以下鏈接找到訓練和評估代碼:https://github.com/huggingface/open-r1/
評估
- 我們觀察到該模型的推理過程有了輕微改進,與DeepSeek的推理模型相比,它在意大利語環境下思考更加清晰。
- 此模型是為實驗目的而訓練的,歡迎進行各種基準評估。請注意,與普通模型相比,該模型會生成更多的token,並且在推理過程中會消耗更多的顯存。
- 如果你願意對該模型進行評估,請確保允許模型生成足夠的token。限制模型輸出少於4000個token的生成請求會導致結果不佳。
- 我們相信,通過共享和實驗,民主化且在文化上得到改進的開源模型將會不斷發展!
🔧 技術細節
文檔未提供詳細技術細節,暫不提供相關內容。
📄 許可證
本項目採用Apache 2.0許可證。
🤗 社區
我們要感謝Huggingface的工作人員以及所有為Open - R1項目做出貢獻的人!
引用
@article{WiroAI,
title={WiroAI/OpenR1-Qwen-7B-Italian,
author={Abdullah Bezir, Cengiz Asmazoğlu},
year={2025},
url={https://huggingface.co/WiroAI/OpenR1-Qwen-7B-Italian}
}
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98