# 低顯存消耗

Qwen3 Reranker 4B W4A16 G128
Apache-2.0
這是對Qwen/Qwen3-Reranker-4B進行GPTQ量化的成果,顯著降低了顯存使用量
大型語言模型 Transformers
Q
boboliu
157
1
Qwen3 Embedding 4B W4A16 G128
Apache-2.0
這是經過GPTQ量化的Qwen3-Embedding-4B模型,顯存使用量顯著降低,性能損失較小。
文本嵌入
Q
boboliu
141
1
Optical Flow MEMFOF Tartan T TSKH
Bsd-3-clause
MEMFOF是一種內存高效的光流估計方法,專為全高清視頻設計,結合了高精度和低顯存使用。
視頻處理 PyTorch 英語
O
egorchistov
201
2
Hviske Tiske
Openrail
目前最快的丹麥語ASR模型,是hviske-v2的蒸餾版本,速度提升約4倍且保持準確率不變。
語音識別 其他
H
pluttodk
139
5
Flux 4bit
其他
採用4位Transformer和T5編碼器的Flux模型,用於文本生成圖像任務,支持非商業用途。
文本生成圖像
F
eramth
302
1
Mlx FLUX.1 Schnell 4bit Quantized
Apache-2.0
基於MLX框架優化的4位量化文本生成圖像模型,支持高效圖像生成
文本生成圖像 英語
M
argmaxinc
1,644
16
Distil Whisper Large V3 Es
MIT
基於Whisper v3大模型蒸餾的西班牙語語音識別模型,由SandboxAI與Universidad Nacional de Rio Negro合作開發
語音識別 Transformers 西班牙語
D
marianbasti
64
10
Photon V1
其他
Photon 是一個基於穩定擴散技術的文本到圖像生成模型,專注於高質量的圖像生成。
圖像生成
P
digiplay
127.30k
38
Rwkv Raven 1b5
RWKV是一種結合RNN和Transformer優勢的大語言模型,支持高效訓練和快速推理,具備無限上下文長度處理能力。
大型語言模型 Transformers
R
RWKV
428
12
Guanaco 7b Leh V2
Gpl-3.0
基於LLaMA 7B的多語言指令跟隨語言模型,支持英文、中文和日語,適用於聊天機器人和指令跟隨任務。
大型語言模型 Transformers 支持多種語言
G
KBlueLeaf
474
37
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase