The Teacher
基於Qwen3-1.7B微調,通過強化學習技術提升數學推理能力的語言模型
大型語言模型
Safetensors 英語
T
shiviktech
824
0
Deepseekmath 7B MathFusion
Apache-2.0
MathFusionQA 是基於 deepseek-math-7b-base 的數學問題解決模型,通過指令融合增強大語言模型的數學問題解決能力。
大型語言模型
Transformers 英語

D
QizhiPei
14
1
Doge 160M Reason Distill
Apache-2.0
Doge 160M 推理蒸餾版是一個基於動態掩碼注意力機制和跨域混合專家的輕量級語言模型,專注於推理和問答任務。
大型語言模型
Transformers 英語

D
SmallDoge
26
4
Open Reasoner Zero 7B
MIT
開放推理者零號是基於基礎模型規模化強化學習的開源方案,專注於可擴展性、簡潔性和易用性的大規模推理導向強化學習實現。
大型語言模型
Transformers

O
Open-Reasoner-Zero
776
28
Openr1 Qwen 7B Turkish
Apache-2.0
基於Qwen2.5-Instruct在土耳其語數據集上微調的7B參數大語言模型,專注於數學推理和逐步思考能力
大型語言模型
Transformers

O
WiroAI
319
21
Openmath2 Llama3.1 70B
OpenMath2-Llama3.1-70B 是基於 Llama3.1-70B-Base 模型,使用 OpenMathInstruct-2 數據集進行微調的數學專用大語言模型。
大型語言模型
Transformers 英語

O
nvidia
923
20
Phi 3 Small 128k Instruct
MIT
Phi-3-Small-128K-Instruct是一個70億參數的輕量級開源模型,專注於高質量與強推理能力,支持128K長上下文,在常識、語言理解、數學、代碼等任務中表現優異。
大型語言模型
Transformers 其他

P
microsoft
7,194
176
Code Llama 3 8B
基於Llama-3-8B訓練的代碼生成與數學問題解答模型,支持多種編程語言和詳細代碼解釋
大型語言模型
Transformers 支持多種語言

C
ajibawa-2023
55
30
Llama 3 Smaug 8B
基於Meta Llama 3構建的優化模型,針對多輪對話場景提升性能
大型語言模型
Transformers

L
abacusai
8,943
89
Herobophades 3x7B
Apache-2.0
HeroBophades-3x7B是一個基於mergekit構建的實驗性專家混合(LLM)模型,設計為在12GB顯存的GPU上以4位模式運行。
大型語言模型
Transformers

H
nbeerbower
20
3
Leeroodedicated Math 7b
該模型通過專家協同方法構建,專注於數學問題求解,能自主生成解決方案或在需要時調用GPT-4級別的大模型。
大型語言模型
Transformers

L
leeroo
63
6
Theprofessor 155b
TheProfessor是通過mergekit工具整合多個預訓練語言模型而成的混合模型,專注於對話交流、邏輯推理、科學研究、醫學知識和數學能力。
大型語言模型
Transformers

T
abacusai
17
96
Llama 2 7b Hf 4bit 64rank
MIT
LoftQ(LoRA微調感知量化)模型,提供量化後的主幹網絡和LoRA適配器,專為LoRA微調設計,提升大語言模型在量化過程中的微調性能和效率。
大型語言模型
Transformers 英語

L
LoftQ
1,754
2
Parallel 7B
Apache-2.0
MathOctopus是基於LLaMA 2架構的多語言數學推理大語言模型,支持10種語言,專注於解決數學問題。
大型語言模型
Transformers 支持多種語言

P
Mathoctopus
14
2
Mathcoder CL 7B
Apache-2.0
MathCoder系列開源大語言模型,專為通用數學問題求解而設計,基於Llama-2微調
大型語言模型
Transformers 英語

M
MathLLMs
74
18
Mathcoder L 7B
Apache-2.0
MathCoder系列開源大語言模型,專為通用數學問題求解定製,基於Llama-2和Code Llama微調。
大型語言模型
Transformers 英語

M
MathLLMs
127
18
Metamath 7B V1.0
MetaMath-Llemma-7B是基於MetaMathQA數據集全參數微調的數學推理模型,在GSM8K和MATH數據集上表現優異。
大型語言模型
Transformers

M
meta-math
278
27
Noon 7b
Openrail
Noon是一個基於BLOOM架構的70億參數阿拉伯語大語言模型,專為指令微調設計,支持文本生成、代碼生成、數學問題解決及問答等任務。
大型語言模型
Transformers 支持多種語言

N
Naseej
200
45
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98