# 低VRAM推論

Mrm8488 Qwen3 14B Ft Limo GGUF
Apache-2.0
Qwen3-14B-ft-limoモデルの様々な量子化バージョンで、llama.cppのimatrixオプションを使用して生成され、さまざまな性能とストレージ要件に適しています。
大規模言語モデル
M
bartowski
866
1
Bielik 4.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
このモデルはBielik-4.5B-v3.0-InstructのFP8量子化バージョンで、AutoFP8技術により重みと活性化をFP8データ型に量子化し、ディスク容量とGPUメモリ要件を約50%削減します。
大規模言語モデル その他
B
speakleash
74
1
Bielik 1.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
これはBielik-1.5B-v3.0-Instructモデルを基にしたFP8動的量子化バージョンで、vLLMまたはSGLang推論フレームワークに適応しています。AutoFP8量子化技術により、パラメータのビット数を16ビットから8ビットに削減し、ディスク容量とGPUメモリ要件を大幅に削減しました。
大規模言語モデル その他
B
speakleash
31
1
Openhands Lm 7b V0.1 GGUF
MIT
OpenHands LMは、Qwen Coder 2.5 Instruct 32Bをベースに構築されたオープンソースのコーディングモデルで、特殊な微調整によりソフトウェアエンジニアリングタスクで優れた性能を発揮します。
大規模言語モデル 英語
O
Mungert
1,131
2
Qwen2.5 VL 7B Instruct GPTQ Int3
Apache-2.0
これはQwen2.5-VL-7B-Instructモデルに基づく非公式のGPTQ-Int3量子化バージョンで、画像テキストからテキストへのマルチモーダルタスクに適しています。
画像生成テキスト Transformers 複数言語対応
Q
hfl
577
1
Qwq 32B Bnb 4bit
Apache-2.0
QwQ-32Bの4ビット量子化バージョンで、Bitsandbytes技術を使用して最適化されており、リソースが制限された環境での効率的な推論に適しています
大規模言語モデル Transformers
Q
onekq-ai
167
2
Qwen2.5 VL 3B Instruct GPTQ Int4
Apache-2.0
これはQwen2.5-VL-3B-InstructモデルのGPTQ-Int4量子化バージョンで、画像テキストからテキストへのマルチモーダルタスクに適しており、中国語と英語をサポートしています。
画像生成テキスト Transformers 複数言語対応
Q
hfl
1,312
2
Smolvlm2 500M Video Instruct
Apache-2.0
軽量マルチモーダルモデルで、動画コンテンツ分析のために設計されており、動画、画像、テキスト入力を処理してテキスト出力を生成できます。
画像生成テキスト Transformers 英語
S
HuggingFaceTB
17.89k
56
Smolvlm2 256M Video Instruct
Apache-2.0
SmolVLM2-256M-Videoは軽量マルチモーダルモデルで、動画コンテンツ分析のために設計されており、動画、画像、テキスト入力を処理しテキスト出力を生成できます。
画像生成テキスト Transformers 英語
S
HuggingFaceTB
22.16k
53
Smolvlm2 2.2B Instruct
Apache-2.0
SmolVLM2-2.2Bは、動画コンテンツ分析のために設計された軽量マルチモーダルモデルで、動画、画像、テキスト入力を処理しテキスト出力を生成できます。
画像生成テキスト Transformers 英語
S
HuggingFaceTB
62.56k
164
Molmo 7B D 0924 NF4
Apache-2.0
Molmo-7B-D-0924の4ビット量子化バージョンで、NF4量子化戦略を通じてVRAM使用量を削減し、VRAMが制限された環境に適しています。
画像生成テキスト Transformers
M
Scoolar
1,259
1
Cogvideox1.5 5B
その他
CogVideoXは清影に似たオープンソースの動画生成モデルで、高解像度動画生成をサポートしています
テキスト生成ビデオ 英語
C
THUDM
11.12k
36
Meta Llama 3.1 8B Instruct AWQ INT4
Llama 3.1 8B InstructのINT4量子化バージョンで、AutoAWQツールを使用して量子化されており、多言語対話シナリオに適しています。
大規模言語モデル Transformers 複数言語対応
M
hugging-quants
348.23k
67
Dorna Llama3 8B Instruct Quantized4Bit
Dorna-Llama3-8B-Instructの4ビット量子化版で、ペルシャ語に最適化され、Flash Attention 2技術を統合して推論効率を向上
大規模言語モデル Transformers 複数言語対応
D
amirMohammadi
22
11
Rwkv 4 169m Pile
RWKV-4はRNNとTransformerの利点を融合した大規模言語モデルで、高性能・高速推論・効率的な訓練が特徴
大規模言語モデル Transformers
R
RWKV
5,698
8
Moss Moon 003 Sft
MOSSはプラグイン拡張をサポートするオープンソースの対話型言語モデルで、パラメータ数160億、中英対話とツール呼び出し機能を備えています。
大規模言語モデル Transformers 複数言語対応
M
fnlp
98
127
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase