Diffucoder 7B Cpgrpo 4bit
DiffuCoder-7B-cpGRPO-4bitは、AppleのDiffuCoder-7B-cpGRPOモデルを基に変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。
大規模言語モデル その他
D
mlx-community
218
1
Hunyuan A13B Instruct 4bit
その他
騰訊混元A13B大規模言語モデルの4ビット量子化バージョンで、命令追従タスクに適しています。
大規模言語モデル
H
mlx-community
201
4
Llama3 1 Turkish ChatBot
MIT
Meta LLaMA 3.1 8B大規模言語モデルをベースに微調整されたトルコ語教育質問と回答用のチャットボットで、トルコ語教育シーンに特化して最適化されています。
大規模言語モデル その他
L
metehanayhan
176
2
Josiefied Qwen3 30B A3B Abliterated V2 4bit
これはQwen3-30Bモデルから変換された4ビット量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
194
1
Qwen3 235B A22B 4bit DWQ 053125
Apache-2.0
これはQwen3-235B-A22B-8ビットモデルから変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
200
1
Qwen3 30B A3B Abliterated Fp4
Apache-2.0
これはQwen3-30B-A3B-abliteratedの4ビット量子化モデルで、パラメータ規模は8B相当で、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

Q
huihui-ai
103
1
Deepseek R1 0528 Qwen3 8B 4bit
MIT
このモデルはDeepSeek-R1-0528-Qwen3-8Bを基に変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化されており、テキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
924
1
Deepseek R1 0528 Qwen3 8B MLX 4bit
MIT
DeepSeek AIによって開発された大規模言語モデルで、4ビット量子化による最適化が施され、Appleチップ搭載のデバイスに適しています。
大規模言語モデル
D
lmstudio-community
274.40k
1
Deepseek R1 0528 4bit
DeepSeek-R1-0528-4bit は DeepSeek-R1-0528 をベースに変換された4ビット量子化モデルで、MLXフレームワーク向けに最適化されています。
大規模言語モデル
D
mlx-community
157
9
Moondream 2b 2025 04 14 4bit
Apache-2.0
Moondreamは軽量級のビジュアル言語モデルで、効率的な全プラットフォーム実行のために設計されています。2025年4月14日にリリースされた4ビット量子化版は、高い精度を維持しながらメモリ使用量を大幅に削減しました。
画像生成テキスト
Safetensors
M
moondream
6,037
38
Turkishlaw
Apache-2.0
Qwen3-14Bをベースとしたトルコ法律専用言語モデル、LoRA手法でファインチューニングされ4ビット量子化技術を採用
大規模言語モデル 複数言語対応
T
OrionCAF
19
3
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQはQwen3-235B-A22B-8bitモデルから変換された4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
70
1
Qwen3 4B 4bit DWQ
Apache-2.0
このモデルはQwen3-4Bの4ビットDWQ量子化バージョンで、MLX形式に変換され、mlxライブラリを使用したテキスト生成が容易になります。
大規模言語モデル
Q
mlx-community
517
2
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
これはQwen/Qwen3-30B-A3BからMLX形式に変換された4ビット量子化モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
240
5
QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
Qwen2.5アーキテクチャに基づく3Bパラメータの命令ファインチューニングモデル、UnslothとHuggingface TRLライブラリでトレーニング速度を最適化
大規模言語モデル
Transformers 英語

Q
hailong18102002
30
1
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508は、Qwen/Qwen3-30B-A3BをMLX形式に変換した4ビット量子化モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
410
12
Qwen3 30B A3B MNN
Apache-2.0
Qwen3-30B-A3BからエクスポートされたMNNモデルを4ビット量子化したバージョンで、効率的な推論に適しています。
大規模言語モデル 英語
Q
taobao-mnn
550
1
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQはQwen/Qwen3-14Bから変換されたMLXフォーマットモデルで、AWQ量子化技術を使用してモデルを4ビットに圧縮し、MLXフレームワークでの効率的な推論に適しています。
大規模言語モデル
Q
mlx-community
252
2
Qwen3 8B 4bit DWQ
Apache-2.0
Qwen3-8B-4bit-DWQ は Qwen/Qwen3-8B を MLX フォーマットに変換した 4 ビット量子化バージョンで、Apple デバイス上で効率的に動作します。
大規模言語モデル
Q
mlx-community
306
1
Phi 4 Mini Reasoning MLX 4bit
MIT
これは、マイクロソフトのPhi-4-mini-reasoningモデルを変換したMLX形式の4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
P
lmstudio-community
72.19k
2
Qwen3 4B Rpg Roleplay
Apache-2.0
千問3-4Bモデルを微調整したキャラクタープレイ会話モデルで、キャラクター特性に合った一貫性のある対話生成が得意
大規模言語モデル 英語
Q
Chun121
1,657
6
Josiefied Qwen3 1.7B Abliterated V1 4bit
Qwen3-1.7Bをベースにした4ビット量子化バージョン、MLXフレームワーク向けの軽量大規模言語モデル
大規模言語モデル
J
mlx-community
135
2
Qwen3 8B 4bit AWQ
Apache-2.0
Qwen3-8B-4bit-AWQは、Qwen/Qwen3-8Bを基に変換された4ビットAWQ量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
1,682
1
Qwen3 235B A22B 4bit
Apache-2.0
このモデルはQwen/Qwen3-235B-A22BをMLX形式に変換した4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
974
6
Qwen3 8B 4bit
Apache-2.0
これはQwen/Qwen3-8Bモデルの4ビット量子化バージョンで、MLXフレームワーク形式に変換されており、Appleチップデバイスでの効率的な推論に適しています。
大規模言語モデル
Q
mlx-community
2,131
2
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bitはQwen/Qwen3-30B-A3Bを変換した4ビット量子化バージョンで、MLXフレームワーク下での効率的なテキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
2,394
7
Qwen3 4B 4bit
Apache-2.0
Qwen3-4B-4bit は Qwen/Qwen3-4B から MLX フォーマットに変換された 4 ビット量子化バージョンで、Apple チップ上での効率的な実行に適しています。
大規模言語モデル
Q
mlx-community
7,400
6
Qwen3 1.7B 4bit
Apache-2.0
Qwen3-1.7B-4bitは通義千問1.7Bモデルの4ビット量子化バージョンで、MLXフレームワーク形式に変換されており、Apple Siliconデバイスで効率的に実行できます。
大規模言語モデル
Q
mlx-community
11.85k
2
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bitはQwen/Qwen3-14Bモデルをmlx-lmで変換した4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
3,178
4
Qwen3 4B MNN
Apache-2.0
Qwen3-4BのMNNモデルの4ビット量子化バージョンで、効率的なテキスト生成タスクに使用されます。
大規模言語モデル 英語
Q
taobao-mnn
10.60k
2
Internvl2 5 1B MNN
Apache-2.0
InternVL2_5-1Bに基づく4ビット量子化バージョンで、テキスト生成とチャットシーンに適しています。
大規模言語モデル 英語
I
taobao-mnn
2,718
1
GLM Z1 32B 0414 4bit
MIT
このモデルはTHUDM/GLM-Z1-32B-0414を変換した4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
G
mlx-community
225
2
Bge Multilingual Gemma2 GPTQ
Apache-2.0
これはBAAI/bge-multilingual-gemma2モデルの4ビットGPTQ量子化バージョンで、多言語テキスト埋め込みタスクをサポートします。
テキスト埋め込み
Transformers

B
shuyuej
34
5
Mistral 7B Instruct V0.3 Forensics V1
このモデルはMistral-7B-Instruct-v0.3を最適化したファインチューニング版で、法医学調査分野のQ&Aタスク向けに設計されており、高度な法医学調査推論と高速知識検索をサポートします。
大規模言語モデル
Transformers

M
gerasmark
28
2
UI TARS 1.5 7B 4bit
Apache-2.0
UI-TARS-1.5-7B-4bitはマルチモーダルモデルで、画像テキストからテキストへの変換タスクに特化しており、英語をサポートしています。
画像生成テキスト
Transformers 複数言語対応

U
mlx-community
184
1
Dia 1.6B 4bit
Apache-2.0
Dia-1.6B-4bit はMLXフォーマットに基づく4ビット量子化テキスト音声変換モデルで、nari-labs/Dia-1.6Bから変換されました。
音声合成 英語
D
mlx-community
168
4
Gemma 3 27b It Qat 4bit
その他
Gemma 3 27B IT QAT 4bit はGoogleのオリジナルモデルから変換されたMLX形式のモデルで、画像テキストからテキストへのタスクをサポートします。
画像生成テキスト
Transformers その他

G
mlx-community
2,200
12
3b De Ft Research Release 4bit
Apache-2.0
これはMLXフォーマット変換に基づくドイツ語テキスト音声変換モデルで、ドイツ語言語処理タスクをサポートします。
音声合成
Transformers ドイツ語

3
mlx-community
19
0
Hidream I1 Full Nf4
MIT
HiDream-I1は170億パラメータを持つオープンソースの画像生成基盤モデルで、数秒で業界トップレベルの画像を生成できます。
画像生成
H
azaneko
16.95k
38
Hidream I1 Fast Nf4
MIT
HiDream-I1は170億パラメータを持つオープンソースの画像生成基盤モデルで、4ビット量子化バージョンは16GB VRAMで動作し、高速かつ高品質な画像生成を実現します。
画像生成
H
azaneko
19.22k
7
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98