# 大規模言語モデル

Hunyuan A13B Instruct 4bit
その他
騰訊混元A13B大規模言語モデルの4ビット量子化バージョンで、命令追従タスクに適しています。
大規模言語モデル
H
mlx-community
201
4
Josiefied Qwen3 30B A3B Abliterated V2 4bit
これはQwen3-30Bモデルから変換された4ビット量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
194
1
Kimi Dev 72B GGUF
MIT
Kimi-Dev-72Bの量子化バージョンで、先進的な非線形最適量子化とマルチヘッド潜在注意力機構を採用し、ストレージと計算要件を削減します。
大規模言語モデル その他
K
ubergarm
2,780
1
Delta Vector Austral 24B Winton GGUF
Apache-2.0
Delta-VectorのAustral-24B-Wintonモデルの量子化バージョンで、llama.cppツールを使用して量子化処理を行い、さまざまなハードウェア構成での効率的な実行に適しています。
大規模言語モデル 英語
D
bartowski
421
1
Deepseek R1 0528 Qwen3 8B 6bit
MIT
DeepSeek-R1-0528-Qwen3-8Bモデルを基に変換された6ビット量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
582
1
Qwen3 235B A22B 4bit DWQ 053125
Apache-2.0
これはQwen3-235B-A22B-8ビットモデルから変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
200
1
Deepseek R1 0528 Qwen3 8B Bf16
MIT
このモデルは、deepseek-ai/deepseek-r1-0528-Qwen3-8B を変換したMLX形式のバージョンで、Appleデバイスのローカル推論に適しています。
大規模言語モデル
D
mlx-community
2,298
1
Deepseek Ai DeepSeek R1 0528 GGUF
MIT
DeepSeek-R1-0528は大型言語モデルで、量子化処理を行ってさまざまなハードウェアでの実行効率を最適化しています。
大規模言語モデル
D
bartowski
2,703
6
Plamo 2 Translate
その他
Preferred Networksが開発した翻訳タスク専用の大規模言語モデルで、英語と日本語の相互翻訳をサポート
機械翻訳 Transformers 複数言語対応
P
pfnet
381
27
PKU DS LAB.FairyR1 32B GGUF
FairyR1-32Bは32Bパラメータ規模の大規模言語モデルで、PKU-DS-LABによって開発され、テキスト生成タスクに特化しています。
大規模言語モデル
P
DevQuasar
134
1
GLM 4 32B 0414 4bit DWQ
MIT
これはTHUDM/GLM-4-32B-0414モデルのMLXフォーマット版で、4ビットDWQ量子化処理が施されており、Appleチップデバイス向けの効率的な推論に適しています。
大規模言語モデル 複数言語対応
G
mlx-community
156
4
Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bitはQwen3-32Bモデルを8ビット量子化したバージョンで、テキスト生成タスクに適しており、mlx-communityによってリリースされました。
大規模言語モデル
Q
mlx-community
211
1
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQはQwen3-235B-A22B-8bitモデルから変換された4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
70
1
Gemma 3 12b It 4bit DWQ
Gemma 3 12Bモデルの4ビット量子化バージョンで、MLXフレームワークに適しており、効率的なテキスト生成タスクをサポートします。
大規模言語モデル
G
mlx-community
554
2
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct は Qwen2.5 アーキテクチャに基づく 7B パラメータ規模のコード生成モデルで、命令微調整に特化しており、コード生成やプログラミング支援タスクに適しています。
大規模言語モデル PyTorch
A
averntech
87
1
Qwen3 235B A22B Mixed 3 6bit
Apache-2.0
これはQwen/Qwen3-235B-A22Bモデルを変換した混合3-6ビット量子化バージョンで、Apple MLXフレームワーク向けの効率的な推論に適しています。
大規模言語モデル
Q
mlx-community
100
2
Qwen Qwen2.5 VL 72B Instruct GGUF
その他
Qwen2.5-VL-72B-Instructのマルチモーダル大規模言語モデル量子化バージョン、画像テキストからテキストタスクをサポート、高精度から低メモリ要求までの多様な量子化レベルに対応。
テキスト生成画像 英語
Q
bartowski
1,336
1
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
これはQwen/Qwen3-30B-A3BからMLX形式に変換された4ビット量子化モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
240
5
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508は、Qwen/Qwen3-30B-A3BをMLX形式に変換した4ビット量子化モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
410
12
Nvidia.opencodereasoning Nemotron 14B GGUF
NVIDIAが開発したオープンソースのコード推論大規模言語モデルで、パラメータ規模は140億、コード生成と推論タスクに特化しています。
大規模言語モデル
N
DevQuasar
423
2
Qwen3 30B A3B MNN
Apache-2.0
Qwen3-30B-A3BからエクスポートされたMNNモデルを4ビット量子化したバージョンで、効率的な推論に適しています。
大規模言語モデル 英語
Q
taobao-mnn
550
1
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQはQwen/Qwen3-14Bから変換されたMLXフォーマットモデルで、AWQ量子化技術を使用してモデルを4ビットに圧縮し、MLXフレームワークでの効率的な推論に適しています。
大規模言語モデル
Q
mlx-community
252
2
Qwen3 8b Ru
Apache-2.0
Qwen3-8Bをベースにしたロシア語最適化大規模言語モデル、ロシア語テキスト生成タスク専用設計
大規模言語モデル Transformers その他
Q
attn-signs
30
2
Qwen3 30B A3B 4bit DWQ
Apache-2.0
これはQwen3-30B-A3Bモデルを基にした4ビット量子化バージョンで、6ビット量子化から4ビットに蒸留したカスタムDWQ量子化技術を使用して作成され、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
561
19
Qwen3 30B A3B Gptq 8bit
Apache-2.0
Qwen3 30B A3BはGPTQメソッドを用いて8ビット量子化処理を施した大規模言語モデルで、効率的な推論シナリオに適しています。
大規模言語モデル Transformers
Q
btbtyler09
301
2
ELYZA Shortcut 1.0 Qwen 32B
Apache-2.0
ELYZA-Shortcut-1.0-Qwen-32BはQwen2.5-32B-Instructを基に開発された非推論モデルで、推論ステップを迂回して直接最終回答を生成できます。
大規模言語モデル Transformers 複数言語対応
E
elyza
172
2
Qwen3 8B 4bit AWQ
Apache-2.0
Qwen3-8B-4bit-AWQは、Qwen/Qwen3-8Bを基に変換された4ビットAWQ量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
1,682
1
Qwen3 30B A3B GGUF
Qwen3-30B-A3BのGGUF量子化バージョンで、複数のビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
MaziyarPanahi
158.92k
3
Qwen3 235B A22B 4bit
Apache-2.0
このモデルはQwen/Qwen3-235B-A22BをMLX形式に変換した4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
974
6
Qwen3 30B A3B MLX 8bit
Apache-2.0
このモデルはQwen/Qwen3-30B-A3Bから変換されたMLX形式モデルで、8ビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit は Qwen/Qwen3-30B-A3B を変換した 8 ビット量子化バージョンで、MLX フレームワーク向けに最適化されており、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
4,199
19
Qwen3 8B Bf16
Apache-2.0
Qwen3-8B-bf16は、Qwen/Qwen3-8Bを基に変換されたMLX形式のモデルで、テキスト生成タスクをサポートします。
大規模言語モデル
Q
mlx-community
1,658
1
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bitはQwen/Qwen3-30B-A3BモデルのMLX形式に変換されたバージョンで、Appleチップ上で効率的に動作することができます。
大規模言語モデル
Q
mlx-community
1,553
6
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bitはQwen/Qwen3-30B-A3Bを変換した4ビット量子化バージョンで、MLXフレームワーク下での効率的なテキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
2,394
7
Qwen3 32B MLX 4bit
Apache-2.0
このモデルはQwen3-32BのMLX形式の4ビット量子化バージョンで、Apple Siliconデバイスでの高効率実行に最適化されています。
大規模言語モデル
Q
lmstudio-community
32.14k
3
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bitはQwen/Qwen3-14Bモデルをmlx-lmで変換した4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
3,178
4
Huihui Ai.glm 4 32B 0414 Abliterated GGUF
GLM-4-32B-0414-abliterated はGLMアーキテクチャに基づく大規模言語モデルで、パラメータ規模は32Bであり、テキスト生成タスクに適しています。
大規模言語モデル
H
DevQuasar
623
2
GLM Z1 32B 0414 4bit
MIT
このモデルはTHUDM/GLM-Z1-32B-0414を変換した4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
G
mlx-community
225
2
Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
これはQwen2.5-32Bをベースにした統合モデルで、DeepSeek-R1-Distill-Qwen-32B、QwQ-32B、Sky-T1-32B-Flashの特徴を融合し、性能向上を図っています。
大規模言語モデル Transformers
Q
sm54
14
4
Qwen 2 Audio Instruct Dynamic Fp8
Apache-2.0
Qwen2-AudioはQwen大規模音声言語モデルシリーズの最新バージョンで、複数の音声信号入力を処理し、音声指示に基づいて音声分析を実行したり、直接テキスト応答を生成したりできます。
テキスト生成オーディオ Transformers 英語
Q
mlinmg
24
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase