ERNIE 4.5 21B A3B PT 8bit
Apache-2.0
ERNIE-4.5-21B-A3B-PT-8bitは、百度のERNIE-4.5-21B-A3B-PTモデルの8ビット量子化バージョンで、MLX形式に変換されており、Appleチップ搭載のデバイスに適しています。
大規模言語モデル 複数言語対応
E
mlx-community
123
1
Jan Nano 8bit
Apache-2.0
Jan-nano-8bitは、Menlo/Jan-nanoモデルを変換した8ビット量子化バージョンで、MLXフレームワーク用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
188
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 8bit
これはDeepSeek-R1-0528-Qwen3-8Bモデルを変換したMLX形式の8ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
847
1
Deepseek R1 0528 Qwen3 8B MLX 8bit
MIT
DeepSeek-R1-0528-Qwen3-8Bモデルに基づく8ビット量子化バージョンで、Apple Siliconチップ用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
D
lmstudio-community
151.87k
2
Devstral Small 2505 8bit
Apache-2.0
Devstral-Small-2505-8bitは、mistralai/Devstral-Small-2505を基に変換された8ビット量子化モデルで、MLXフレームワークに適しており、複数の言語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
D
mlx-community
789
1
Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bitはQwen3-32Bモデルを8ビット量子化したバージョンで、テキスト生成タスクに適しており、mlx-communityによってリリースされました。
大規模言語モデル
Q
mlx-community
211
1
Csm 1b 8bit
Apache-2.0
これはsesame/csm-1bからMLXフォーマットに変換されたテキスト読み上げモデルで、英語をサポートしています。
音声合成 複数言語対応
C
mlx-community
36
0
Qwen3 235B A22B 8bit
Apache-2.0
このモデルはQwen/Qwen3-235B-A22Bから変換された8ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
477
2
Qwen3 30B A3B MLX 8bit
Apache-2.0
このモデルはQwen/Qwen3-30B-A3Bから変換されたMLX形式モデルで、8ビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit は Qwen/Qwen3-30B-A3B を変換した 8 ビット量子化バージョンで、MLX フレームワーク向けに最適化されており、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
4,199
19
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bitはQwen/Qwen3-30B-A3BモデルのMLX形式に変換されたバージョンで、Appleチップ上で効率的に動作することができます。
大規模言語モデル
Q
mlx-community
1,553
6
Qwen3 8B MLX 8bit
Apache-2.0
Qwen/Qwen3-8Bを基に変換された8ビット量子化MLX形式の大規模言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
63.46k
2
GLM 4 32B 0414 8bit
MIT
このモデルはTHUDM/GLM-4-32B-0414から変換された8ビット量子化MLXフォーマットの大規模言語モデルで、中英文テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
mlx-community
222
4
Orpheus 3b Korean FT Q8 0.gguf
Apache-2.0
Orpheusは高性能な韓国語テキスト読み上げモデルで、自然な感情表現を実現するために微調整され、8ビット量子化バージョンで効率化されています。
音声合成 複数言語対応
O
lex-au
29
0
Orpheus 3b French FT Q8 0.gguf
Apache-2.0
オルフェウスは高性能なテキスト読み上げモデルで、自然な感情表現を伴う音声合成のために微調整されています。このリポジトリでは30億パラメータモデルの8ビット量子化バージョンをホストしており、高品質な出力を維持しながら効率を最適化しています。
音声合成 複数言語対応
O
lex-au
101
1
Orpheus 3b Hindi FT Q8 0.gguf
Apache-2.0
オルフェウスは高性能なテキスト読み上げモデルで、自然な感情表現を実現するために微調整されています。このリポジトリでは30億パラメータモデルの8ビット量子化バージョンをホストしており、高品質な出力を維持しながら効率を最適化しています。
音声合成 その他
O
lex-au
42
0
Orpheus 3b German FT Q8 0.gguf
Apache-2.0
Orpheusは高性能なドイツ語テキスト音声変換モデルで、自然で感情豊かな音声合成を実現します。このモデルは30億パラメータモデルの8ビット量子化バージョンで、実行効率を最適化しています。
音声合成 複数言語対応
O
lex-au
130
3
VL Rethinker 7B 8bit
Apache-2.0
VL-Rethinker-7B-8bit は Qwen2.5-VL-7B-Instruct をベースとしたマルチモーダルモデルで、視覚質問応答タスクをサポートします。
テキスト生成画像
Transformers 英語

V
mlx-community
21
0
VL Rethinker 72B 8bit
Apache-2.0
このモデルはQwen2.5-VL-7B-Instructから変換されたマルチモーダル視覚言語モデルで、8ビット量子化をサポートし、視覚的質問応答タスクに適しています。
テキスト生成画像
Transformers 英語

V
mlx-community
18
0
Gemma 3 27b It Qat 8bit
その他
Gemma 3 27B IT QAT 8bit はGoogleのGemma 3 27Bモデルを変換したMLX形式のモデルで、画像からテキストへのタスクをサポートします。
画像生成テキスト
Transformers その他

G
mlx-community
422
2
Orpheus 3b 0.1 Pretrained 8bit
Apache-2.0
これはMLXフレームワークに基づく8ビット量子化バージョンのOrpheus-3B事前学習言語モデルで、元のモデルはCanopyLabsによって開発されました。
大規模言語モデル 英語
O
mlx-community
15
1
Omnigen V1 Bnb 8bit
MIT
OmniGen-v1の8ビット量子化バージョンで、テキストから画像および画像から画像のタスクに適しており、マルチモーダル入力をサポートします。
テキスト生成画像
O
gryan
76
0
Gpt J 6B 8bit
Apache-2.0
これはEleutherAI GPT-Jの60億パラメータモデルの8ビット量子化バージョンで、Colabや1080Tiなどの限られたGPUリソースでの実行と微調整に最適化されています。
大規模言語モデル
Transformers 英語

G
hivemind
176
131
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98