Qwen3 Reranker 4B W4A16 G128
Apache-2.0
這是對Qwen/Qwen3-Reranker-4B進行GPTQ量化的成果,顯著降低了顯存使用量
大型語言模型
Transformers

Q
boboliu
157
1
Qwen3 Embedding 4B W4A16 G128
Apache-2.0
這是經過GPTQ量化的Qwen3-Embedding-4B模型,顯存使用量顯著降低,性能損失較小。
文本嵌入
Q
boboliu
141
1
Optical Flow MEMFOF Tartan T TSKH
Bsd-3-clause
MEMFOF是一種內存高效的光流估計方法,專為全高清視頻設計,結合了高精度和低顯存使用。
視頻處理
PyTorch 英語
O
egorchistov
201
2
Hviske Tiske
Openrail
目前最快的丹麥語ASR模型,是hviske-v2的蒸餾版本,速度提升約4倍且保持準確率不變。
語音識別 其他
H
pluttodk
139
5
Flux 4bit
其他
採用4位Transformer和T5編碼器的Flux模型,用於文本生成圖像任務,支持非商業用途。
文本生成圖像
F
eramth
302
1
Mlx FLUX.1 Schnell 4bit Quantized
Apache-2.0
基於MLX框架優化的4位量化文本生成圖像模型,支持高效圖像生成
文本生成圖像 英語
M
argmaxinc
1,644
16
Distil Whisper Large V3 Es
MIT
基於Whisper v3大模型蒸餾的西班牙語語音識別模型,由SandboxAI與Universidad Nacional de Rio Negro合作開發
語音識別
Transformers 西班牙語

D
marianbasti
64
10
Photon V1
其他
Photon 是一個基於穩定擴散技術的文本到圖像生成模型,專注於高質量的圖像生成。
圖像生成
P
digiplay
127.30k
38
Rwkv Raven 1b5
RWKV是一種結合RNN和Transformer優勢的大語言模型,支持高效訓練和快速推理,具備無限上下文長度處理能力。
大型語言模型
Transformers

R
RWKV
428
12
Guanaco 7b Leh V2
Gpl-3.0
基於LLaMA 7B的多語言指令跟隨語言模型,支持英文、中文和日語,適用於聊天機器人和指令跟隨任務。
大型語言模型
Transformers 支持多種語言

G
KBlueLeaf
474
37
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98