# 低VRAM消費

Qwen3 Reranker 4B W4A16 G128
Apache-2.0
これはQwen/Qwen3-Reranker-4BをGPTQ量子化した成果で、VRAM使用量を大幅に削減しました。
大規模言語モデル Transformers
Q
boboliu
157
1
Qwen3 Embedding 4B W4A16 G128
Apache-2.0
これはGPTQ量子化を施したQwen3-Embedding-4Bモデルで、VRAM使用量が大幅に削減され、性能損失が少ない。
テキスト埋め込み
Q
boboliu
141
1
Optical Flow MEMFOF Tartan T TSKH
Bsd-3-clause
MEMFOFは、全高清ビデオ向けに設計されたメモリ効率の良いオプティカルフロー推定方法で、高精度と低VRAM使用量を兼ね備えています。
動画処理 PyTorch 英語
O
egorchistov
201
2
Hviske Tiske
Openrail
現在最速のデンマーク語ASRモデルで、hviske-v2の蒸留版です。速度は約4倍向上しつつ、精度は維持されています。
音声認識 その他
H
pluttodk
139
5
Flux 4bit
その他
4ビットTransformerとT5エンコーダーを採用したFluxモデルで、テキストから画像生成タスクに使用され、非商用利用をサポートします。
テキスト生成画像
F
eramth
302
1
Mlx FLUX.1 Schnell 4bit Quantized
Apache-2.0
MLXフレームワークで最適化された4ビット量子化テキスト生成画像モデル、効率的な画像生成をサポート
テキスト生成画像 英語
M
argmaxinc
1,644
16
Distil Whisper Large V3 Es
MIT
Whisper v3大規模モデルを蒸留したスペイン語音声認識モデル、SandboxAIとUniversidad Nacional de Rio Negroの共同開発
音声認識 Transformers スペイン語
D
marianbasti
64
10
Photon V1
その他
Photonは安定拡散技術に基づくテキストから画像を生成するモデルで、高品質な画像生成に特化しています。
画像生成
P
digiplay
127.30k
38
Rwkv Raven 1b5
RWKVはRNNとTransformerの利点を組み合わせた大規模言語モデルで、効率的なトレーニングと高速な推論をサポートし、無限のコンテキスト長処理能力を備えています。
大規模言語モデル Transformers
R
RWKV
428
12
Guanaco 7b Leh V2
Gpl-3.0
LLaMA 7Bベースの多言語コマンドフォロー言語モデルで、英語、中国語、日本語をサポートし、チャットボットやコマンドフォロー任務に適しています。
大規模言語モデル Transformers 複数言語対応
G
KBlueLeaf
474
37
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase