# 中文文本生成

Deepseek R1 0528 Qwen3 8B 6bit
MIT
基于DeepSeek-R1-0528-Qwen3-8B模型转换的6位量化版本,适用于MLX框架的文本生成任务。
大型语言模型
D
mlx-community
582
1
Deepseek R1 0528 4bit
DeepSeek-R1-0528-4bit 是一个基于 DeepSeek-R1-0528 转换而来的 4 位量化模型,专为 MLX 框架优化。
大型语言模型
D
mlx-community
157
9
Qwen3 235B A22B 3bit DWQ
Apache-2.0
这是一个基于Qwen/Qwen3-235B-A22B转换的3位深度量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
41
2
Qwen3 235B A22B Mixed 3 6bit
Apache-2.0
这是一个基于Qwen/Qwen3-235B-A22B模型转换而来的混合3-6位量化版本,适用于苹果MLX框架的高效推理。
大型语言模型
Q
mlx-community
100
2
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
这是一个基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
240
5
Qwen3 30B A3B 4bit DWQ
Apache-2.0
这是一个基于Qwen3-30B-A3B模型的4位量化版本,通过从6位量化蒸馏至4位定制的DWQ量化技术制作,适用于文本生成任务。
大型语言模型
Q
mlx-community
561
19
Qwen3 8B Q4 K M GGUF
Apache-2.0
这是Qwen3-8B模型的GGUF格式版本,适用于llama.cpp框架,支持文本生成任务。
大型语言模型 Transformers
Q
ufoym
342
3
Mlabonne Qwen3 8B Abliterated GGUF
这是Qwen3-8B-abliterated模型的量化版本,使用llama.cpp进行量化,适用于文本生成任务。
大型语言模型
M
bartowski
6,892
5
Qwen Qwen3 4B GGUF
Qwen团队提供的Qwen3-4B的Llamacpp imatrix量化版本,支持多种量化类型,适用于文本生成任务。
大型语言模型
Q
bartowski
10.58k
9
Doge 20M Chinese
Apache-2.0
Doge模型采用动态掩码注意力机制进行序列转换,可选择多层感知机或跨域专家混合进行状态转换。
大型语言模型 Transformers 支持多种语言
D
wubingheng
65
2
Gemma 3 4b Pt Q4 0 GGUF
这是一个基于Google Gemma 3.4B参数模型转换的GGUF格式模型,适用于文本生成任务。
大型语言模型
G
ngxson
74
1
Deepseek R1 ReDistill Qwen 7B V1.1 Q8 0 GGUF
MIT
该模型是基于DeepSeek-R1-ReDistill-Qwen-7B-v1.1转换的GGUF格式模型,适用于文本生成任务。
大型语言模型
D
NikolayKozloff
44
2
Llama 3.1 0x Mini Q8 0 GGUF
这是一个基于ozone-ai/llama-3.1-0x-mini转换的GGUF格式模型,适用于llama.cpp框架。
大型语言模型
L
NikolayKozloff
19
1
Gpt2 Xlarge Chinese Cluecorpussmall
基于CLUECorpusSmall预训练的轻量级中文GPT2模型,采用6层架构,专为中文文本生成任务优化
大型语言模型 Transformers 中文
G
uer
315
5
Gpt2 Medium Chinese Cluecorpussmall
基于CLUECorpusSmall预训练的轻量级中文GPT2模型,6层/768维结构,专为中文文本生成优化
大型语言模型 Transformers 中文
G
uer
863
3
Randeng T5 77M
Apache-2.0
擅长处理自然语言转换任务的中文版mT5-small轻量级模型
大型语言模型 Transformers 中文
R
IDEA-CCNL
104
3
Wenzhong GPT2 110M
Apache-2.0
专长于自然语言生成任务的中文版GPT2-Small模型
大型语言模型 Transformers 中文
W
IDEA-CCNL
2,478
28
Gpt2 Distil Chinese Cluecorpussmall
基于CLUECorpusSmall预训练的中文GPT2轻量级模型,参数规模为6层/768隐藏层,适用于中文文本生成任务
大型语言模型 中文
G
uer
1,043
20
Gpt2 Chinese Cluecorpussmall
中文GPT2-distil模型,基于CLUECorpusSmall数据集预训练,适用于中文文本生成任务
大型语言模型 中文
G
uer
41.45k
207
Gpt2 Chinese Poem
基于GPT2架构的中文古诗生成模型,由UER-py预训练,支持生成中国古诗。
大型语言模型 中文
G
uer
1,905
38
Cpt Large
面向中文理解与生成的预训练非平衡Transformer模型,支持多种自然语言处理任务
大型语言模型 Transformers 中文
C
fnlp
122
16
Bart Large Chinese
基于BART架构的中文预训练模型,支持文本生成和理解任务,由复旦大学自然语言处理实验室发布
大型语言模型 Transformers 中文
B
fnlp
638
55
Gpt2 Wechsel Chinese
MIT
采用WECHSEL方法训练的中文GPT-2模型,通过子词嵌入的有效初始化实现单语语言模型的跨语言迁移。
大型语言模型 Transformers 中文
G
benjamin
19
4
Bart Base Chinese
面向中文理解与生成的预训练非平衡Transformer模型,支持文本到文本生成任务
大型语言模型 Transformers 中文
B
fnlp
6,504
99
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase