# 中国語生成

Tencent.hunyuan A13B Instruct GGUF
騰訊混元A13B指令モデルの量子化バージョンで、技術的手段により性能を維持しながら実行効率を向上させます。
大規模言語モデル
T
DevQuasar
402
1
Deepseek R1 0528 Qwen3 8B 4bit
MIT
このモデルはDeepSeek-R1-0528-Qwen3-8Bを基に変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化されており、テキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
924
1
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQはQwen3-235B-A22B-8bitモデルから変換された4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
70
1
Qwen3 4B 4bit DWQ
Apache-2.0
このモデルはQwen3-4Bの4ビットDWQ量子化バージョンで、MLX形式に変換され、mlxライブラリを使用したテキスト生成が容易になります。
大規模言語モデル
Q
mlx-community
517
2
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508は、Qwen/Qwen3-30B-A3BをMLX形式に変換した4ビット量子化モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
410
12
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQはQwen/Qwen3-14Bから変換されたMLXフォーマットモデルで、AWQ量子化技術を使用してモデルを4ビットに圧縮し、MLXフレームワークでの効率的な推論に適しています。
大規模言語モデル
Q
mlx-community
252
2
Qwen3 8B 4bit DWQ
Apache-2.0
Qwen3-8B-4bit-DWQ は Qwen/Qwen3-8B を MLX フォーマットに変換した 4 ビット量子化バージョンで、Apple デバイス上で効率的に動作します。
大規模言語モデル
Q
mlx-community
306
1
Mlabonne Qwen3 4B Abliterated GGUF
Qwen3-4B-abliteratedの量子化バージョンで、llama.cppを使用して量子化されており、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
M
bartowski
3,623
3
Qwen3 8B 4bit AWQ
Apache-2.0
Qwen3-8B-4bit-AWQは、Qwen/Qwen3-8Bを基に変換された4ビットAWQ量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
1,682
1
Qwen3 235B A22B 4bit
Apache-2.0
このモデルはQwen/Qwen3-235B-A22BをMLX形式に変換した4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
974
6
Qwen3 30B A3B MLX 8bit
Apache-2.0
このモデルはQwen/Qwen3-30B-A3Bから変換されたMLX形式モデルで、8ビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit は Qwen/Qwen3-30B-A3B を変換した 8 ビット量子化バージョンで、MLX フレームワーク向けに最適化されており、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
4,199
19
Qwen3 8B Bf16
Apache-2.0
Qwen3-8B-bf16は、Qwen/Qwen3-8Bを基に変換されたMLX形式のモデルで、テキスト生成タスクをサポートします。
大規模言語モデル
Q
mlx-community
1,658
1
Qwen3 8B 4bit
Apache-2.0
これはQwen/Qwen3-8Bモデルの4ビット量子化バージョンで、MLXフレームワーク形式に変換されており、Appleチップデバイスでの効率的な推論に適しています。
大規模言語モデル
Q
mlx-community
2,131
2
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bitはQwen/Qwen3-30B-A3Bを変換した4ビット量子化バージョンで、MLXフレームワーク下での効率的なテキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
2,394
7
Qwen3 4B 4bit
Apache-2.0
Qwen3-4B-4bit は Qwen/Qwen3-4B から MLX フォーマットに変換された 4 ビット量子化バージョンで、Apple チップ上での効率的な実行に適しています。
大規模言語モデル
Q
mlx-community
7,400
6
Qwen3 8B MLX 8bit
Apache-2.0
Qwen/Qwen3-8Bを基に変換された8ビット量子化MLX形式の大規模言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
63.46k
2
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bitはQwen/Qwen3-14Bモデルをmlx-lmで変換した4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
3,178
4
Qwq 32B Bnb 4bit
Apache-2.0
QwQ-32Bの4ビット量子化バージョンで、Bitsandbytes技術を使用して最適化されており、リソースが制限された環境での効率的な推論に適しています
大規模言語モデル Transformers
Q
onekq-ai
167
2
Bloom 1b4 Zh
Openrail
bigscience/bloom-1b7アーキテクチャに基づいて開発された中国語言語モデル、14億パラメータ規模、語彙表圧縮によりVRAM使用量を削減
大規模言語モデル Transformers 中国語
B
Langboat
5,157
18
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase