# 中文生成

Tencent.hunyuan A13B Instruct GGUF
騰訊混元A13B指令模型的量化版本,通過技術手段在保證性能的同時提升運行效率。
大型語言模型
T
DevQuasar
402
1
Deepseek R1 0528 Qwen3 8B 4bit
MIT
該模型是基於DeepSeek-R1-0528-Qwen3-8B轉換的4位量化版本,專為MLX框架優化,適用於文本生成任務。
大型語言模型
D
mlx-community
924
1
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQ是基於Qwen3-235B-A22B-8bit模型轉換而來的4位量化版本,適用於文本生成任務。
大型語言模型
Q
mlx-community
70
1
Qwen3 4B 4bit DWQ
Apache-2.0
該模型是Qwen3-4B的4位DWQ量化版本,轉換為MLX格式,方便使用mlx庫進行文本生成。
大型語言模型
Q
mlx-community
517
2
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508是基於Qwen/Qwen3-30B-A3B轉換至MLX格式的4位量化模型,適用於文本生成任務。
大型語言模型
Q
mlx-community
410
12
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQ是基於Qwen/Qwen3-14B轉換而來的MLX格式模型,使用AWQ量化技術將模型壓縮至4bit,適用於MLX框架的高效推理。
大型語言模型
Q
mlx-community
252
2
Qwen3 8B 4bit DWQ
Apache-2.0
Qwen3-8B-4bit-DWQ 是基於 Qwen/Qwen3-8B 轉換至 MLX 格式的 4 位量化版本,適用於在 Apple 設備上高效運行。
大型語言模型
Q
mlx-community
306
1
Mlabonne Qwen3 4B Abliterated GGUF
Qwen3-4B-abliterated的量化版本,使用llama.cpp進行量化,支持多種量化類型,適用於文本生成任務。
大型語言模型
M
bartowski
3,623
3
Qwen3 8B 4bit AWQ
Apache-2.0
Qwen3-8B-4bit-AWQ 是基於 Qwen/Qwen3-8B 轉換的 4bit AWQ 量化版本,適用於 MLX 框架的文本生成任務。
大型語言模型
Q
mlx-community
1,682
1
Qwen3 235B A22B 4bit
Apache-2.0
該模型是基於Qwen/Qwen3-235B-A22B轉換至MLX格式的4位量化版本,適用於文本生成任務。
大型語言模型
Q
mlx-community
974
6
Qwen3 30B A3B MLX 8bit
Apache-2.0
該模型是基於Qwen/Qwen3-30B-A3B轉換而來的MLX格式模型,支持8位量化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit 是基於 Qwen/Qwen3-30B-A3B 轉換的 8 位量化版本,專為 MLX 框架優化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
4,199
19
Qwen3 8B Bf16
Apache-2.0
Qwen3-8B-bf16 是基於 Qwen/Qwen3-8B 轉換的 MLX 格式模型,支持文本生成任務。
大型語言模型
Q
mlx-community
1,658
1
Qwen3 8B 4bit
Apache-2.0
這是Qwen/Qwen3-8B模型的4位量化版本,已轉換為MLX框架格式,適用於蘋果芯片設備的高效推理。
大型語言模型
Q
mlx-community
2,131
2
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bit是基於Qwen/Qwen3-30B-A3B轉換的4位量化版本,適用於在MLX框架下進行高效的文本生成任務。
大型語言模型
Q
mlx-community
2,394
7
Qwen3 4B 4bit
Apache-2.0
Qwen3-4B-4bit 是從 Qwen/Qwen3-4B 轉換至 MLX 格式的 4 位量化版本,適用於在 Apple 芯片上高效運行。
大型語言模型
Q
mlx-community
7,400
6
Qwen3 0.6B 4bit
Apache-2.0
這是一個基於Qwen/Qwen3-0.6B模型轉換的4位量化版本,適用於MLX框架的高效推理。
大型語言模型
Q
mlx-community
6,015
5
Qwen3 8B MLX 8bit
Apache-2.0
基於Qwen/Qwen3-8B轉換的8位量化MLX格式大語言模型,適用於文本生成任務
大型語言模型
Q
lmstudio-community
63.46k
2
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bit是基於Qwen/Qwen3-14B模型使用mlx-lm轉換的4位量化版本,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
3,178
4
Qwq 32B Bnb 4bit
Apache-2.0
QwQ-32B的4位量化版本,使用Bitsandbytes技術進行優化,適用於資源受限環境下的高效推理
大型語言模型 Transformers
Q
onekq-ai
167
2
Bloom 1b4 Zh
Openrail
基於bigscience/bloom-1b7架構開發的中文語言模型,參數規模14億,通過壓縮詞表降低顯存佔用
大型語言模型 Transformers 中文
B
Langboat
5,157
18
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase