# 4ビット量子化推論

Deepseek R1 0528 AWQ
MIT
DeepSeek - R1 - 0528 671Bモデルの4ビットAWQ量子化バージョンで、ハイエンドGPUノードでの使用に適しています。
大規模言語モデル Transformers
D
adamo1139
161
2
GLM 4 32B 0414 4bit DWQ
MIT
これはTHUDM/GLM-4-32B-0414モデルのMLXフォーマット版で、4ビットDWQ量子化処理が施されており、Appleチップデバイス向けの効率的な推論に適しています。
大規模言語モデル 複数言語対応
G
mlx-community
156
4
Gemma 3 12b It 4bit DWQ
Gemma 3 12Bモデルの4ビット量子化バージョンで、MLXフレームワークに適しており、効率的なテキスト生成タスクをサポートします。
大規模言語モデル
G
mlx-community
554
2
GLM 4 32B 0414.w4a16 Gptq
MIT
これはGPTQ手法を用いてGLM-4-32B-0414を4ビット量子化したモデルで、コンシューマー向けハードウェアに適しています。
大規模言語モデル Safetensors
G
mratsim
785
2
Josiefied Qwen3 4B Abliterated V1 4bit
これはQwen3-4BモデルをMLX形式に変換した4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
175
1
GLM 4 32B 0414 4bit
MIT
GLM-4-32B-0414-4bit は THUDM/GLM-4-32B-0414 から変換された MLX フォーマットモデルで、中国語と英語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
mlx-community
361
3
Philosophy Model
Apache-2.0
これはUnslothとHuggingface TRLライブラリで最適化されたMistral-7B命令微調整モデルで、トレーニング速度が2倍向上しました
大規模言語モデル Transformers 英語
P
raak-16
54
2
Gemma 3 4b It Qat 4bit
その他
Gemma 3 4B IT QAT 4bit は、量子化認識トレーニング(QAT)を経た4ビット量子化大規模言語モデルで、Gemma 3アーキテクチャに基づき、MLXフレームワーク向けに最適化されています。
画像生成テキスト Transformers その他
G
mlx-community
607
1
Gemma 3 12b It Qat 4bit
その他
google/gemma-3-12b-it-qat-q4_0-unquantized から変換されたMLX形式モデルで、画像テキスト生成タスクをサポート
テキスト生成画像 Transformers その他
G
mlx-community
984
5
Google Gemma 2 27b It AWQ
Gemma 2 27B ITは、AutoAWQ量子化に基づく4ビットの大規模言語モデルで、対話と命令追従タスクに適しています。
大規模言語モデル Safetensors
G
mbley
122
2
Deepseek R1 Chinese Law
Apache-2.0
UnslothとHuggingface TRLライブラリでトレーニングされたLlamaモデル、推論速度が2倍向上
大規模言語モデル Transformers 英語
D
corn6
74
2
Llama 3.2 Vision Instruct Bpmncoder
Apache-2.0
Unslothで最適化されたLlama 3.2 11B視覚命令ファインチューニングモデル、4ビット量子化技術を採用、トレーニング速度が2倍向上
テキスト生成画像 Transformers 英語
L
utkarshkingh
40
1
Qwen2 Vl Instuct Bpmncoder
Apache-2.0
Qwen2-VL-7Bモデルを基にした4ビット量子化バージョンで、UnslothとHuggingface TRLライブラリを使用してトレーニングされ、推論速度が2倍向上
テキスト生成画像 Transformers 英語
Q
utkarshkingh
18
1
Gemma 3 12b It Mlx 4Bit
Gemma 3 12B IT MLX 4Bitは、unsloth/gemma-3-12b-itから変換されたMLX形式モデルで、Appleシリコンデバイスに適しています。
大規模言語モデル Transformers 英語
G
przemekmroczek
23
1
Nano R1 Model
Apache-2.0
UnslothとHuggingface TRLライブラリで最適化されたQwen2モデル、推論速度が2倍向上
大規模言語モデル Transformers 英語
N
Mansi-30
25
2
Qwen 2 VL 7B OCR
Apache-2.0
Qwen2-VL-7Bモデルを基にした微調整バージョンで、UnslothとHuggingfaceのTRLライブラリを使用して訓練され、速度が2倍向上しました。
テキスト生成画像 Transformers 英語
Q
Swapnik
103
1
Llama Bodo Translation Model
Apache-2.0
Meta-Llama-3.1-8Bの4ビット量子化版を微調整したボド語-英語双方向翻訳モデル、Unslothで訓練速度を最適化
大規模言語モデル Transformers 複数言語対応
L
Luson045
27
1
Cogito Maximus
Apache-2.0
コギト・マキシマスは、Qwen2.5 - 72B指令微調整モデルをベースに最適化された高度なテキスト生成モデルで、Unsloth加速トレーニングとTRL微調整フレームワークを採用しており、さまざまなテキスト生成シナリオに適用できます。
大規模言語モデル Transformers
C
Daemontatox
694
2
Qvikhr 2.5 1.5B Instruct SMPO MLX 4bit
Apache-2.0
これはQVikhr-2.5-1.5B-Instruct-SMPOモデルを基にした4ビット量子化バージョンで、MLXフレームワーク向けに最適化されており、ロシア語と英語のコマンド理解と生成タスクをサポートします。
大規模言語モデル Transformers 複数言語対応
Q
Vikhrmodels
249
2
Mistral 7B Summarizer SFT GGUF
MIT
Mistral 7Bアーキテクチャに基づくテキスト要約モデルで、LoRA技術を用いて微調整の効率と性能を最適化しています。
テキスト生成 英語
M
SURESHBEEKHANI
65
0
Qwq 32B Preview AWQ
Apache-2.0
QwQ-32B-PreviewのAWQ 4ビット量子化バージョンで、メモリ使用量と計算要件を大幅に削減し、リソースが限られたハードウェアに適しています。
大規模言語モデル Transformers 英語
Q
KirillR
2,247
26
Mlx Stable Diffusion 3.5 Large 4bit Quantized
その他
これはStable Diffusion 3.5 LargeモデルをDiffusionKit MLXフレームワーク上で量子化したバージョンで、画像生成タスクに適しています。
テキスト生成画像 英語
M
argmaxinc
2,101
4
Aria Sequential Mlp Bnb Nf4
Apache-2.0
Aria-sequential_mlpベースのBitsAndBytes NF4量子化バージョンで、画像テキストからテキストタスクに適しており、VRAM要件は約15.5GBです。
画像生成テキスト Transformers
A
leon-se
76
11
Meta Llama 3.1 8B Text To SQL
Apache-2.0
Meta-Llama-3.1-8Bを基にした4ビット量子化ファインチューニングモデルで、テキスト生成タスク、特にテキストからSQLへの変換に特化
大規模言語モデル Transformers 複数言語対応
M
ruslanmv
1,182
4
Awportrait FL NF4
その他
AWPortrait-FLのBNB-NF4量子化バージョン、FLUX.1-devで開発されたテキストから画像生成モデル
画像生成 英語
A
skunkworx
34
1
Text2cypher Gemma 2 9b It Finetuned 2024v1
Apache-2.0
このモデルはgoogle/gemma-2-9b-itをファインチューニングしたText2Cypherモデルで、自然言語の質問をNeo4jグラフデータベースのCypherクエリ文に変換できます。
知識グラフ 英語
T
neo4j
2,093
22
Mistral 7B Instruct V0.3 AWQ
Apache-2.0
Mistral-7B-Instruct-v0.3はMistral-7B-v0.3を基に命令ファインチューニングされた大規模言語モデルで、4ビットAWQ量子化技術により推論効率を最適化
大規模言語モデル Transformers
M
solidrust
48.24k
3
Google Gemma 2b AWQ 4bit Smashed
google/gemma-2bモデルを基に、AWQ技術を用いて圧縮した4ビット量子化バージョンで、推論効率の向上とリソース消費の削減を目的としています。
大規模言語モデル Transformers
G
PrunaAI
33
1
Phi 3 Mini 4k Instruct Q4
Phi-3 4k Instructは、リソース要件を低減するために4ビット量子化処理された軽量ながら強力な言語モデルです。
大規模言語モデル Transformers
P
bongodongo
39
1
Llama 2 7b Chat Hf Math Ft V1
Apache-2.0
Llama 2 7Bモデルを数学分野でファインチューニングしたチャットモデルで、テキスト生成タスクをサポート
大規模言語モデル Transformers 英語
L
RohitSahoo
27
1
Deepseek Llm 7B Base AWQ
その他
Deepseek LLM 7B Baseは7Bパラメータ規模のベース大規模言語モデルで、AWQ量子化技術を用いて推論効率を最適化しています。
大規模言語モデル Transformers
D
TheBloke
1,863
2
Acegpt 13B Chat AWQ
AceGPT 13Bチャット版のAWQ量子化バージョンで、英語とアラビア語をサポートし、一般的なGPUユーザー向けに設計され、効率的な4ビット量子化推論能力を提供します。
大規模言語モデル Transformers 複数言語対応
A
MohamedRashad
37
3
Llama 2 7b Mt Czech To English
MIT
これはMeta Llama 2 7Bモデルをファインチューニングしたアダプターで、チェコ語テキストを英語に翻訳するために特別に設計されています。
機械翻訳 複数言語対応
L
kaitchup
59
4
Mistral 7b Guanaco
Apache-2.0
Llama2アーキテクチャに基づく事前学習済み言語モデルで、英語テキスト生成タスクに適しています
大規模言語モデル Transformers 英語
M
kingabzpro
67
3
Llama 2 7b MedQuAD
Apache-2.0
Llama - 2 - 7b - chatモデルを医学質問応答データセットMedQuADで微調整した医療質問応答モデル
大規模言語モデル
L
EdwardYu
27
2
Falcon 7B Instruct GPTQ
Apache-2.0
Falcon-7B-Instructの4ビット量子化バージョンで、AutoGPTQツールを使用して量子化され、リソースが制限された環境での効率的な推論に適しています。
大規模言語モデル Transformers 英語
F
TheBloke
189
67
Gpt4 X Alpaca 13b Native 4bit 128g
GPT4とAlpaca命令ファインチューニングを基にした13Bパラメータ言語モデル、4ビット量子化推論をサポート
大規模言語モデル Transformers
G
anon8231489123
344
736
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase