# GPTQ量子化

Qwen3 Reranker 4B W4A16 G128
Apache-2.0
これはQwen/Qwen3-Reranker-4BをGPTQ量子化した成果で、VRAM使用量を大幅に削減しました。
大規模言語モデル Transformers
Q
boboliu
157
1
Qwen3 Embedding 4B W4A16 G128
Apache-2.0
これはGPTQ量子化を施したQwen3-Embedding-4Bモデルで、VRAM使用量が大幅に削減され、性能損失が少ない。
テキスト埋め込み
Q
boboliu
141
1
Qwen3 Embedding 8B W4A16 G128
Apache-2.0
Qwen3-Embedding-8BのGPTQ量子化バージョンで、VRAM要件を大幅に削減しながら高性能を維持します。
テキスト埋め込み
Q
boboliu
322
1
Qwen3 Embedding 0.6B W4A16 G128
Apache-2.0
Qwen3-Embedding-0.6BのGPTQ量子化バージョン。VRAM使用量が最適化され、性能損失が少ない。
テキスト埋め込み
Q
boboliu
131
2
Qwen3 0.6B GPTQ Int8
Apache-2.0
Qwen3-0.6Bは通義千問シリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、優れた推論能力、指示追従能力、エージェント能力を備えています。
大規模言語モデル Transformers
Q
Qwen
1,231
3
Qwen3 1.7B GPTQ Int8
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、17億パラメータのGPTQ 8ビット量子化モデルを提供し、思考モードと非思考モードの切り替えをサポートし、推論能力と多言語サポートを強化しています。
大規模言語モデル Transformers
Q
Qwen
635
1
Orpheus 3b 0.1 Ft.w8a8
Apache-2.0
Orpheus-3B-0.1-FT は因果言語モデルに基づくテキスト音声変換モデルで、効率的な量子化圧縮をサポートしています。
大規模言語モデル Transformers 英語
O
nytopop
173
0
Qwen2.5 VL 3B Instruct GPTQ Int4
Apache-2.0
これはQwen2.5-VL-3B-InstructモデルのGPTQ-Int4量子化バージョンで、画像テキストからテキストへのマルチモーダルタスクに適しており、中国語と英語をサポートしています。
画像生成テキスト Transformers 複数言語対応
Q
hfl
1,312
2
Meta Llama 3.1 8B Instruct GPTQ INT4
これはMeta-Llama-3.1-8B-InstructモデルのINT4量子化バージョンで、GPTQアルゴリズムを使用して量子化されており、多言語対話シナリオに適しています。
大規模言語モデル Transformers 複数言語対応
M
hugging-quants
128.18k
25
Five Phases Mindset
Gpl-3.0
QWENベースの中医インテリジェント診察モデル、五行理論を融合し、個別化中医診断サービスを提供
大規模言語モデル Transformers 中国語
F
cookey39
14
2
Llama 2 13B GPTQ
MetaのLlama 2 13BモデルのGPTQ量子化バージョンで、効率的な推論に適しています。
大規模言語モデル Transformers 英語
L
TheBloke
538
121
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase