Jan Nano 8bit
Apache-2.0
Jan-nano-8bitは、Menlo/Jan-nanoモデルを変換した8ビット量子化バージョンで、MLXフレームワーク用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
188
1
Jan Nano GGUF
Apache-2.0
Jan-Nanoは40億パラメータのコンパクトな言語モデルで、深度研究タスク用に設計され、MCPサーバーの統合を最適化しています。
大規模言語モデル
J
unsloth
1,884
1
Minicpm4 8B Q8 0 GGUF
Apache-2.0
MiniCPM4-8B-Q8_0-GGUFは、llama.cppを使用してopenbmb/MiniCPM4-8BをGGUF形式に変換したモデルで、ローカル推論に適しています。
大規模言語モデル
Transformers 複数言語対応

M
AyyYOO
160
2
Chinda Qwen3 4b Gguf
Apache-2.0
チンダLLM 4BはiApp Technologyが開発した最先端のタイ語モデルで、Qwen3-4Bアーキテクチャに基づいて構築され、タイのAIエコシステムに高度な思考能力をもたらします。
大規模言語モデル
C
iapp
115
1
Qwen3 8B 4bit AWQ
Apache-2.0
Qwen3-8B-4bit-AWQは、Qwen/Qwen3-8Bを基に変換された4ビットAWQ量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
1,682
1
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bitはQwen/Qwen3-30B-A3Bを変換した4ビット量子化バージョンで、MLXフレームワーク下での効率的なテキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
2,394
7
Qwen3 8B MLX 8bit
Apache-2.0
Qwen/Qwen3-8Bを基に変換された8ビット量子化MLX形式の大規模言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
63.46k
2
Llama 4 Scout 17b 16e It Gguf
その他
Meta Llamaの基礎モデルに基づいて構築された画像テキストからテキストへの変換モデルで、gguf-connectorとllama-cpp-pythonを通じたインタラクションをサポートします。
画像生成テキスト
L
chatpig
258
0
Gemma 3 4b It Abliterated GGUF
このモデルはmlabonne/gemma-3-4b-it-abliteratedをベースに変換されたGGUF形式のバージョンで、ローカルでの実行と推論に適しています。
大規模言語モデル
Transformers

G
matrixportal
245
0
Gemma 3 1b It Abliterated GGUF
mlabonne/gemma-3-1b-it-abliteratedをベースに変換されたGGUF形式のモデルで、ローカル推論タスクに適しています。
大規模言語モデル
Transformers

G
matrixportal
333
0
Gemma 3 27b It Abliterated Mlx 4Bit
これはmlabonne/gemma-3-27b-it-abliteratedモデルを基に変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。
大規模言語モデル
Transformers

G
sistabossen
119
0
Gemma 3 1b It GGUF
Gemma 3 1BモデルのGGUF量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
G
MaziyarPanahi
256.05k
4
Thedrummer Gemmasutra 9B V1.1 GGUF
その他
これはTheDrummer/Gemmasutra-9B-v1.1モデルを基にした量子化バージョンで、llama.cppを使用して量子化処理されており、テキスト生成タスクに適しています。
大規模言語モデル
T
bartowski
1,198
6
Qwen2.5 Coder 0.5B Q8 0 GGUF
Apache-2.0
これはQwen2.5-Coder-0.5Bモデルを変換したGGUF形式のモデルで、コード生成タスクに適しています。
大規模言語モデル 複数言語対応
Q
ggml-org
943
5
Llama 3.2 1B Instruct GGUF
Llama-3.2-1B-InstructのGGUF形式のバージョンで、より広範なサポートとより良いパフォーマンスを提供します。
大規模言語モデル
L
MaziyarPanahi
190.76k
12
Phi 3.5 Mini Instruct Uncensored GGUF
Apache-2.0
Phi-3.5-mini-instruct_Uncensoredは量子化された言語モデルで、さまざまなハードウェア条件での使用に適しています。
大規模言語モデル
P
bartowski
1,953
42
Smollm 135M 4bit
Apache-2.0
これは4ビット量子化された1億3500万パラメータの小型言語モデルで、リソースが限られた環境でのテキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

S
mlx-community
312
1
Deepseek V2 Lite Chat GGUF
その他
DeepSeek-V2-Lite-Chatは軽量チャットモデルで、DeepSeek-V2アーキテクチャに基づいて最適化され、効率的な対話生成タスクに適しています。
大規模言語モデル
Transformers

D
gaianet
1,334
1
Gemma 2 27b It Q8 0 GGUF
これはGoogle Gemma 2Bモデルを変換したGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル
G
KimChen
471
2
Phi 3 Mini 128k Instruct Function GGUF
Phi-3-mini-128k-instruct_function は GGUF フォーマットで量子化されたテキスト生成モデルで、複数の量子化レベルをサポートしています。
大規模言語モデル
P
afrideva
40
1
Meta Llama 3 70B Instruct GGUF
Llama 3 70B InstructのGGUF形式のバージョンで、より効率的なローカル実行体験を提供します。
大規模言語モデル
Transformers 英語

M
PawanKrd
468
4
Longalpaca 13B GGUF
LongAlpaca-13B-GGUFはYukang/LongAlpaca-13BモデルのGGUF形式量子化バージョンで、2-8ビットの量子化オプションをサポートし、ローカルテキスト生成タスクに適しています。
大規模言語モデル
L
MaziyarPanahi
285
3
Stable Diffusion V2 1 GGUF
Stable-diffusion-GGUFはテキストから画像を生成するモデルで、複数の量子化バージョンを提供し、アート創作などの分野に適しています。
テキスト生成画像 その他
S
jiaowobaba02
441
15
Tinyllama 1.1B Chat V1.0 GGUF
Apache-2.0
TinyLlamaは1.1Bパラメータの軽量Llamaモデルで、チャットやプログラミング支援タスクに最適化されています。
大規模言語モデル 英語
T
andrijdavid
117
2
Vits Female It
VITSアーキテクチャに基づくイタリア語女性音声合成モデルで、テキストを自然で流暢なイタリア語音声に変換できます。
音声合成
Transformers その他

V
z-uo
218
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98