# 低VRAM使用量

Moondream 2b 2025 04 14 4bit
Apache-2.0
Moondreamは軽量級のビジュアル言語モデルで、効率的な全プラットフォーム実行のために設計されています。2025年4月14日にリリースされた4ビット量子化版は、高い精度を維持しながらメモリ使用量を大幅に削減しました。
画像生成テキスト Safetensors
M
moondream
6,037
38
Falcon E 3B Base
その他
Falcon-EはTIIが開発した1.58ビット量子化言語モデルで、純粋なTransformerアーキテクチャを採用し、効率的な推論のために設計されています
大規模言語モデル Transformers
F
tiiuae
51
6
Phi 4 Mini Instruct Float8dq
MIT
Phi-4-mini-instructモデルはtorchaoによるfloat8動的活性化と重みの量子化を経ており、H100上で36%のVRAM削減と15-20%の速度向上を実現し、精度にはほとんど影響を与えません。
大規模言語モデル Transformers その他
P
pytorch
1,006
1
Qwen2.5 VL 7B Instruct GPTQ Int4
Apache-2.0
Qwen2.5-VL-7B-Instruct-GPTQ-Int4はQwen2.5-VL-7B-Instructモデルを非公式にGPTQ-Int4量子化したバージョンで、画像からテキストへのマルチモーダルタスクをサポートします。
画像生成テキスト Transformers 複数言語対応
Q
hfl
872
3
Llama 3 2 3B SFT GGUF
MIT
Llama-3.2-3B事前学習モデルの命令ファインチューニング版で、4ビット量子化とLoRA技術を採用した効率的なファインチューニング
大規模言語モデル 英語
L
SURESHBEEKHANI
53
1
Flux.1 Lite 8B
その他
Flux.1 LiteはFLUX.1-devモデルから蒸留された80億パラメータのTransformerモデルで、7GBのメモリ使用量を削減し、実行速度を23%向上させながら、元のモデルの精度を維持しています。
テキスト生成画像
F
Freepik
11.17k
59
Llama 3.2 3B Instruct FP8 Dynamic
Llama-3.2-3B-InstructのFP8量子化バージョンで、多言語の商業および研究用途に適しており、特にアシスタントのようなチャットシナリオに最適です。
大規模言語モデル Safetensors 複数言語対応
L
RedHatAI
986
3
Bloom 1b4 Zh
Openrail
bigscience/bloom-1b7アーキテクチャに基づいて開発された中国語言語モデル、14億パラメータ規模、語彙表圧縮によりVRAM使用量を削減
大規模言語モデル Transformers 中国語
B
Langboat
5,157
18
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase