# 大規模モデルの軽量化

Thedrummer Cydonia 24B V3 GGUF
その他
これはTheDrummerのCydonia-24B-v3モデルの量子化バージョンで、llama.cppを使用して量子化処理を行い、さまざまなハードウェアや使用シーンに適応するための複数の量子化オプションを提供しています。
大規模言語モデル
T
bartowski
1,326
4
Qwen3 30B A3B Abliterated Fp4
Apache-2.0
これはQwen3-30B-A3B-abliteratedの4ビット量子化モデルで、パラメータ規模は8B相当で、テキスト生成タスクに適しています。
大規模言語モデル Transformers
Q
huihui-ai
103
1
Qwen Qwen3 32B GGUF
Apache-2.0
Qwen/Qwen3-32Bを基にした量子化バージョンで、llama.cppを使用して量子化されており、様々な量子化タイプをサポートし、異なるハードウェア要件に対応します。
大規模言語モデル
Q
bartowski
49.13k
35
GLM 4 32B 0414 4bit
MIT
GLM-4-32B-0414-4bit は THUDM/GLM-4-32B-0414 から変換された MLX フォーマットモデルで、中国語と英語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
mlx-community
361
3
Wan2.1 FLF2V 14B 720P Gguf
Apache-2.0
Wan2.1-FLF2V-14B-720P は画像から動画を生成するモデルで、様々な動画制作シーンに適しています。
動画処理 複数言語対応
W
city96
5,019
17
Belle Whisper Large V3 Turbo Zh Ct2
Apache-2.0
これはBELLE-2/Belle-whisper-large-v3-turbo-zhモデルのCTranslate2形式変換バージョンで、効率的な音声認識タスクに適しています。
音声認識
B
flateon
32
2
Llm2vec Meta Llama 31 8B Instruct Mntp Unsup Simcse
MIT
LLM2Vecは、デコーダのみのアーキテクチャを持つ大規模言語モデルをテキストエンコーダに変換するソリューションで、双方向アテンション、マスクされた次単語予測、教師なしコントラスト学習を有効にすることで変換を実現します。
テキスト埋め込み 英語
L
McGill-NLP
55
2
Molmo 7B D Bnb 4bit
Apache-2.0
Molmo-7B-DはBnB 4ビット量子化を施した大規模言語モデルで、モデルサイズが30GBから7GBに縮小され、VRAM要件が約12GBに抑えられます。
大規模言語モデル Transformers
M
cyan2k
1,994
17
C4ai Command R 08 2024
これはCoForAI/c4ai-command-r-08-2024モデルを変換したGGUF形式のテキスト生成モデルで、複数言語をサポートしています。
大規模言語モデル 複数言語対応
C
KimChen
22
2
Malaysian Distil Whisper Large V3
マレーシアデータセットで蒸留最適化されたWhisper Large V3音声認識モデル、マレー語など複数言語をサポート
音声認識 Transformers 複数言語対応
M
mesolitica
30
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase