# 中文文本生成

Deepseek R1 0528 Qwen3 8B 6bit
MIT
基於DeepSeek-R1-0528-Qwen3-8B模型轉換的6位量化版本,適用於MLX框架的文本生成任務。
大型語言模型
D
mlx-community
582
1
Qwen3 235B A22B 3bit DWQ
Apache-2.0
這是一個基於Qwen/Qwen3-235B-A22B轉換的3位深度量化模型,適用於文本生成任務。
大型語言模型
Q
mlx-community
41
2
Qwen3 235B A22B Mixed 3 6bit
Apache-2.0
這是一個基於Qwen/Qwen3-235B-A22B模型轉換而來的混合3-6位量化版本,適用於蘋果MLX框架的高效推理。
大型語言模型
Q
mlx-community
100
2
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
這是一個基於Qwen/Qwen3-30B-A3B轉換至MLX格式的4位量化模型,適用於文本生成任務。
大型語言模型
Q
mlx-community
240
5
Qwen3 30B A3B 4bit DWQ
Apache-2.0
這是一個基於Qwen3-30B-A3B模型的4位量化版本,通過從6位量化蒸餾至4位定製的DWQ量化技術製作,適用於文本生成任務。
大型語言模型
Q
mlx-community
561
19
Qwen3 8B Q4 K M GGUF
Apache-2.0
這是Qwen3-8B模型的GGUF格式版本,適用於llama.cpp框架,支持文本生成任務。
大型語言模型 Transformers
Q
ufoym
342
3
Mlabonne Qwen3 8B Abliterated GGUF
這是Qwen3-8B-abliterated模型的量化版本,使用llama.cpp進行量化,適用於文本生成任務。
大型語言模型
M
bartowski
6,892
5
Qwen Qwen3 4B GGUF
Qwen團隊提供的Qwen3-4B的Llamacpp imatrix量化版本,支持多種量化類型,適用於文本生成任務。
大型語言模型
Q
bartowski
10.58k
9
Doge 20M Chinese
Apache-2.0
Doge模型採用動態掩碼注意力機制進行序列轉換,可選擇多層感知機或跨域專家混合進行狀態轉換。
大型語言模型 Transformers 支持多種語言
D
wubingheng
65
2
Gemma 3 4b Pt Q4 0 GGUF
這是一個基於Google Gemma 3.4B參數模型轉換的GGUF格式模型,適用於文本生成任務。
大型語言模型
G
ngxson
74
1
Deepseek R1 ReDistill Qwen 7B V1.1 Q8 0 GGUF
MIT
該模型是基於DeepSeek-R1-ReDistill-Qwen-7B-v1.1轉換的GGUF格式模型,適用於文本生成任務。
大型語言模型
D
NikolayKozloff
44
2
Llama 3.1 0x Mini Q8 0 GGUF
這是一個基於ozone-ai/llama-3.1-0x-mini轉換的GGUF格式模型,適用於llama.cpp框架。
大型語言模型
L
NikolayKozloff
19
1
Gpt2 Xlarge Chinese Cluecorpussmall
基於CLUECorpusSmall預訓練的輕量級中文GPT2模型,採用6層架構,專為中文文本生成任務優化
大型語言模型 Transformers 中文
G
uer
315
5
Gpt2 Medium Chinese Cluecorpussmall
基於CLUECorpusSmall預訓練的輕量級中文GPT2模型,6層/768維結構,專為中文文本生成優化
大型語言模型 Transformers 中文
G
uer
863
3
Randeng T5 77M
Apache-2.0
擅長處理自然語言轉換任務的中文版mT5-small輕量級模型
大型語言模型 Transformers 中文
R
IDEA-CCNL
104
3
Wenzhong GPT2 110M
Apache-2.0
專長於自然語言生成任務的中文版GPT2-Small模型
大型語言模型 Transformers 中文
W
IDEA-CCNL
2,478
28
Cpt Large
面向中文理解與生成的預訓練非平衡Transformer模型,支持多種自然語言處理任務
大型語言模型 Transformers 中文
C
fnlp
122
16
Gpt2 Chinese Poem
基於GPT2架構的中文古詩生成模型,由UER-py預訓練,支持生成中國古詩。
大型語言模型 中文
G
uer
1,905
38
Gpt2 Chinese Cluecorpussmall
中文GPT2-distil模型,基於CLUECorpusSmall數據集預訓練,適用於中文文本生成任務
大型語言模型 中文
G
uer
41.45k
207
Bart Base Chinese
面向中文理解與生成的預訓練非平衡Transformer模型,支持文本到文本生成任務
大型語言模型 Transformers 中文
B
fnlp
6,504
99
Gpt2 Wechsel Chinese
MIT
採用WECHSEL方法訓練的中文GPT-2模型,通過子詞嵌入的有效初始化實現單語語言模型的跨語言遷移。
大型語言模型 Transformers 中文
G
benjamin
19
4
Bart Large Chinese
基於BART架構的中文預訓練模型,支持文本生成和理解任務,由復旦大學自然語言處理實驗室發佈
大型語言模型 Transformers 中文
B
fnlp
638
55
Gpt2 Distil Chinese Cluecorpussmall
基於CLUECorpusSmall預訓練的中文GPT2輕量級模型,參數規模為6層/768隱藏層,適用於中文文本生成任務
大型語言模型 中文
G
uer
1,043
20
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase