# 高效文本生成

Deepseek R1 0528 GGUF
MIT
基于DeepSeek-R1-0528的量化模型,专注于文本生成任务,提供更高效的使用方式。
大型语言模型
D
lmstudio-community
1,426
5
Ytu Ce Cosmos.turkish Gemma 9b V0.1 GGUF
一个基于Gemma架构的土耳其语大语言模型,专注于文本生成任务。
大型语言模型
Y
DevQuasar
247
1
Huihui Ai.qwen3 4B Abliterated GGUF
慧慧AI的Qwen3-4B模型的量化版本,旨在让知识更广泛地被大众获取。
大型语言模型
H
DevQuasar
540
1
Qwen3 1.7B 4bit
Apache-2.0
Qwen3-1.7B-4bit是通义千问1.7B模型的4位量化版本,已转换为MLX框架格式,便于在Apple Silicon设备上高效运行。
大型语言模型
Q
mlx-community
11.85k
2
Bamba 9B V2
Apache-2.0
Bamba-9B-v2 是基于 Mamba-2 架构构建的仅解码器语言模型,专注于文本生成任务,性能优于 Llama 3.1 8B。
大型语言模型 Transformers
B
ibm-ai-platform
3,634
15
Tesslate Tessa Rust T1 7B GGUF
Apache-2.0
Tessa-Rust-T1-7B的量化版本,使用llama.cpp工具进行量化处理,支持在不同硬件条件下高效运行。
大型语言模型 Transformers 英语
T
bartowski
542
2
Simplestories 30M
MIT
SimpleStories 是一个为可解释性研究设计的微型模型家族,基于 SimpleStories 数据集训练而成,专注于故事生成任务。
文本生成 英语
S
SimpleStories
735
1
Huihui Ai.glm 4 9B 0414 Abliterated GGUF
GLM-4-9B-0414-abliterated 是一个基于 GLM 架构的 9B 参数规模的大型语言模型,适用于文本生成任务。
大型语言模型
H
DevQuasar
3,172
3
Qwen2.5 0.5B Instruct Gensyn Swarm Feathered Giant Ostrich
基于Transformer架构的微调模型,在问答和文本生成任务上表现出色,提供精准、高效的语言交互体验。
大型语言模型 Transformers
Q
chinna6
2,027
1
Orpheus 3b 0.1 Ft Q4 K M GGUF
Apache-2.0
该模型是基于canopylabs/orpheus-3b-0.1-ft转换而来的GGUF格式模型,适用于文本生成任务。
大型语言模型 英语
O
athenasaurav
162
0
Gemma 3 4b It Abliterated GGUF
MIT
一种创新的量化方案,通过混合精度量化实现更小的模型体积和保持高性能。
大型语言模型 英语
G
ZeroWw
247
4
Gemma 3 27b It GGUF
Gemma 3 27B 指令调优模型的 GGUF 量化版本,适用于文本生成任务。
大型语言模型
G
MaziyarPanahi
475.91k
4
Qwq 32B Gptqmodel 4bit Vortex V1
Apache-2.0
QwQ-32B是基于Qwen2架构的32B参数大语言模型,经过GPTQ方法4位整型量化处理,适用于高效文本生成任务。
大型语言模型 Safetensors 英语
Q
ModelCloud
1,620
11
L3.3 Electra R1 70b GGUF
本项目提供了 Steelskull/L3.3-Electra-R1-70b 模型的多种 GGUF 矩阵量化版本,有效提升模型在不同硬件环境下的运行效率和性能表现。
大型语言模型 Transformers
L
ddh0
2,376
6
Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
这是一个量化版本的大语言模型,旨在让知识更易于获取和使用。
大型语言模型
H
DevQuasar
572
3
Llama 3.1 0x Mini
0x Mini是由Ozone AI开发的轻量级语言模型,基于Llama-3.1架构优化,提供高效的文本生成能力
大型语言模型 Transformers
L
ozone-research
21
5
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B 是一个基于 Llama 架构的 8B 参数规模的大型语言模型,经过蒸馏训练优化,适用于文本生成任务。
大型语言模型
D
DevQuasar
320
3
Miniplm Qwen 200M
Apache-2.0
基于Qwen架构的2亿参数模型,采用MiniPLM知识蒸馏框架从零开始预训练
大型语言模型 Transformers 英语
M
MiniLLM
203
5
Hymba 1.5B Base
其他
Hymba-1.5B-Base 是 NVIDIA 开发的一款基础文本生成模型,采用混合架构结合 Mamba 和注意力头,适用于多种自然语言生成任务。
大型语言模型 Transformers
H
nvidia
3,492
142
Stick OCR V4
MIT
这是一个专为内部用例定制的多语言图像转文本模型,支持英语和德语。
大型语言模型 Transformers 支持多种语言
S
DaMax96
597
1
Fikri 3.1 8B Instruct
Fikri是一个专为土耳其语任务定制的语言模型,基于Llama 3.1架构,具有80亿参数。
大型语言模型 Safetensors
F
BrewInteractive
3,226
6
Powerlm 3b
Apache-2.0
PowerLM-3B是一个30亿参数的小型语言模型,采用Power学习率调度器训练,在自然语言多选、代码生成和数学推理等多个基准测试中表现优异。
大型语言模型 Transformers
P
ibm-research
11.07k
20
Layerskip Llama2 7B
其他
基于Llama2 7B改进的模型,支持层级跳跃和自推测解码,提升推理效率
大型语言模型 Transformers 英语
L
facebook
1,674
14
Mistral
其他
Mistral 7B是Mistral AI推出的一款拥有70亿参数的大语言模型,专为高效和高性能而设计,适合需要快速响应的实时应用场景。
大型语言模型
M
cortexso
1,768
1
Mistral 7B Instruct V0.3 AWQ
Apache-2.0
Mistral-7B-Instruct-v0.3是基于Mistral-7B-v0.3进行指令微调的大语言模型,采用4位AWQ量化技术优化推理效率
大型语言模型 Transformers
M
solidrust
48.24k
3
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3的GGUF量化版本,适用于本地推理的文本生成模型
大型语言模型
M
MaziyarPanahi
253.99k
93
Mistral 7B V0.3
Apache-2.0
Mistral-7B-v0.3是基于Mistral-7B-v0.2升级的大语言模型,主要改进是扩展了词汇表至32768个词元。
大型语言模型 Transformers
M
mistralai
442.55k
472
Mistral 7b V0.3 Summarizer
Mistral-7B-Instruct-v0.3 是一个基于 Mistral-7B 的指令调优版本,专注于遵循人类指令的文本生成任务。
大型语言模型 Transformers 英语
M
devesh-2002
22
0
Llama 3 Smaug 8B GGUF
基于abacusai/Llama-3-Smaug-8B的GGUF格式量化模型,支持2-8比特量化级别,适用于文本生成任务
大型语言模型
L
MaziyarPanahi
8,904
5
GIGABATEMAN 7B GGUF
GIGABATEMAN-7B 是一个基于 Mistral 架构的 7B 参数大型语言模型,专注于文本生成任务。
大型语言模型 英语
G
mradermacher
115
3
Mamba 7b Rw
Apache-2.0
Mamba-7B 是一个基于 Mamba 架构的 70 亿参数模型,在 RefinedWeb 数据集上进行了多轮训练(1.2 万亿标记)。Mamba 是一种状态空间模型,不使用自注意力机制,在多种自然语言基准测试中表现出色。
大型语言模型 Safetensors 英语
M
TRI-ML
188
55
Mamba 370m Hf
Mamba是一个基于状态空间模型(SSM)的高效语言模型,具有线性时间复杂度的序列建模能力。
大型语言模型 Transformers
M
state-spaces
6,895
14
Mamba 130m Hf
Mamba是一个与transformers兼容的序列建模模型,具有高效的推理能力。
大型语言模型 Transformers
M
state-spaces
46.83k
56
Mamba 1.4b Hf
Mamba是基于状态空间模型(SSM)架构的高效语言模型,具有1.4B参数规模,支持文本生成任务
大型语言模型 Transformers
M
state-spaces
5,431
11
Darebeagle 7B
Apache-2.0
DareBeagle-7B是通过LazyMergekit合并mlabonne/NeuralBeagle14-7B和mlabonne/NeuralDaredevil-7B得到的7B参数大语言模型,在多个基准测试中表现优异。
大型语言模型 Transformers
D
shadowml
77
1
Decilm 7B
Apache-2.0
DeciLM-7B是一款拥有70.4亿参数的纯解码器文本生成模型,基于Apache 2.0许可证发布,是当前Open LLM排行榜上性能最佳的7B基础语言模型。
大型语言模型 Transformers 英语
D
Deci
2,833
226
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase