# 数学问题求解

The Teacher
基于Qwen3-1.7B微调,通过强化学习技术提升数学推理能力的语言模型
大型语言模型 Safetensors 英语
T
shiviktech
824
0
Deepseekmath 7B MathFusion
Apache-2.0
MathFusionQA 是基于 deepseek-math-7b-base 的数学问题解决模型,通过指令融合增强大语言模型的数学问题解决能力。
大型语言模型 Transformers 英语
D
QizhiPei
14
1
Doge 160M Reason Distill
Apache-2.0
Doge 160M 推理蒸馏版是一个基于动态掩码注意力机制和跨域混合专家的轻量级语言模型,专注于推理和问答任务。
大型语言模型 Transformers 英语
D
SmallDoge
26
4
Open Reasoner Zero 7B
MIT
开放推理者零号是基于基础模型规模化强化学习的开源方案,专注于可扩展性、简洁性和易用性的大规模推理导向强化学习实现。
大型语言模型 Transformers
O
Open-Reasoner-Zero
776
28
Openr1 Qwen 7B Turkish
Apache-2.0
基于Qwen2.5-Instruct在土耳其语数据集上微调的7B参数大语言模型,专注于数学推理和逐步思考能力
大型语言模型 Transformers
O
WiroAI
319
21
Openmath2 Llama3.1 70B
OpenMath2-Llama3.1-70B 是基于 Llama3.1-70B-Base 模型,使用 OpenMathInstruct-2 数据集进行微调的数学专用大语言模型。
大型语言模型 Transformers 英语
O
nvidia
923
20
Phi 3 Small 128k Instruct
MIT
Phi-3-Small-128K-Instruct是一个70亿参数的轻量级开源模型,专注于高质量与强推理能力,支持128K长上下文,在常识、语言理解、数学、代码等任务中表现优异。
大型语言模型 Transformers 其他
P
microsoft
7,194
176
Code Llama 3 8B
基于Llama-3-8B训练的代码生成与数学问题解答模型,支持多种编程语言和详细代码解释
大型语言模型 Transformers 支持多种语言
C
ajibawa-2023
55
30
Llama 3 Smaug 8B
基于Meta Llama 3构建的优化模型,针对多轮对话场景提升性能
大型语言模型 Transformers
L
abacusai
8,943
89
Herobophades 3x7B
Apache-2.0
HeroBophades-3x7B是一个基于mergekit构建的实验性专家混合(LLM)模型,设计为在12GB显存的GPU上以4位模式运行。
大型语言模型 Transformers
H
nbeerbower
20
3
Leeroodedicated Math 7b
该模型通过专家协同方法构建,专注于数学问题求解,能自主生成解决方案或在需要时调用GPT-4级别的大模型。
大型语言模型 Transformers
L
leeroo
63
6
Theprofessor 155b
TheProfessor是通过mergekit工具整合多个预训练语言模型而成的混合模型,专注于对话交流、逻辑推理、科学研究、医学知识和数学能力。
大型语言模型 Transformers
T
abacusai
17
96
Llama 2 7b Hf 4bit 64rank
MIT
LoftQ(LoRA微调感知量化)模型,提供量化后的主干网络和LoRA适配器,专为LoRA微调设计,提升大语言模型在量化过程中的微调性能和效率。
大型语言模型 Transformers 英语
L
LoftQ
1,754
2
Parallel 7B
Apache-2.0
MathOctopus是基于LLaMA 2架构的多语言数学推理大语言模型,支持10种语言,专注于解决数学问题。
大型语言模型 Transformers 支持多种语言
P
Mathoctopus
14
2
Mathcoder CL 7B
Apache-2.0
MathCoder系列开源大语言模型,专为通用数学问题求解而设计,基于Llama-2微调
大型语言模型 Transformers 英语
M
MathLLMs
74
18
Mathcoder L 7B
Apache-2.0
MathCoder系列开源大语言模型,专为通用数学问题求解定制,基于Llama-2和Code Llama微调。
大型语言模型 Transformers 英语
M
MathLLMs
127
18
Metamath 7B V1.0
MetaMath-Llemma-7B是基于MetaMathQA数据集全参数微调的数学推理模型,在GSM8K和MATH数据集上表现优异。
大型语言模型 Transformers
M
meta-math
278
27
Noon 7b
Openrail
Noon是一个基于BLOOM架构的70亿参数阿拉伯语大语言模型,专为指令微调设计,支持文本生成、代码生成、数学问题解决及问答等任务。
大型语言模型 Transformers 支持多种语言
N
Naseej
200
45
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase