Openthinker3 7B GGUF
Apache-2.0
OpenThinker3-7B-GGUF 是 open-thoughts/OpenThinker3-7B 的量化版本,专为高效推理优化,基于 Qwen/Qwen2.5-7B-Instruct 微调,在数学、代码和科学问题上表现优异。
大型语言模型
Transformers

O
QuantFactory
114
2
Falcon H1 7B Instruct
其他
Falcon-H1是由TII开发的高效混合架构语言模型,结合Transformers与Mamba架构优势,支持英语及多语言任务。
大型语言模型
Transformers

F
tiiuae
4,246
7
Falcon H1 3B Instruct
其他
猎鹰-H1是由TII开发的混合Transformers+Mamba架构的因果解码器专用语言模型,支持英语和多语言任务。
大型语言模型
Transformers

F
tiiuae
380
4
Phi 4 Reasoning
MIT
Phi-4推理是基于Phi-4通过监督微调思维链轨迹数据集和强化学习训练的前沿开放权重推理模型,专注于数学、科学和编程技能。
大型语言模型
Transformers 支持多种语言

P
microsoft
11.31k
172
Yulan Mini Instruct
MIT
YuLan-Mini-Instruct是一个24亿参数的紧凑但强大的文本生成模型,专注于数学和代码推理任务,支持中英文。
大型语言模型
Transformers 支持多种语言

Y
yulan-team
97
2
Einstein V4 7B
其他
Einstein-v4-7B是基于Mistral-7B-v0.1在多样化科学数据集上完整微调的大语言模型,专注于STEM领域任务
大型语言模型
Transformers 英语

E
Weyaxi
43
49
Flan T5 Xxl
Apache-2.0
FLAN-T5是基于T5改进的指令微调语言模型,在相同参数量下通过1000多项多语言任务微调实现更优性能
大型语言模型 支持多种语言
F
google
157.41k
1,238
Scibert Scivocab Uncased Squad V2
基于BERT架构的科学领域预训练语言模型,使用科学文献词汇表进行训练
问答系统
S
ktrapeznikov
20
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98