Mrm8488 Qwen3 14B Ft Limo GGUF
Apache-2.0
Qwen3-14B-ft-limo模型的多種量化版本,使用llama.cpp的imatrix選項生成,適用於不同性能和存儲需求
大型語言模型
M
bartowski
866
1
Bielik 4.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
該模型是Bielik-4.5B-v3.0-Instruct的FP8量化版本,通過AutoFP8技術將權重和激活量化為FP8數據類型,減少約50%的磁盤空間和GPU內存需求。
大型語言模型 其他
B
speakleash
74
1
Bielik 1.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
這是一個基於Bielik-1.5B-v3.0-Instruct模型的FP8動態量化版本,適配vLLM或SGLang推理框架,通過AutoFP8量化技術將參數字節數從16位降至8位,顯著降低磁盤空間和GPU顯存需求。
大型語言模型 其他
B
speakleash
31
1
Openhands Lm 7b V0.1 GGUF
MIT
OpenHands LM是一款基於Qwen Coder 2.5 Instruct 32B構建的開源編碼模型,通過特殊微調在軟件工程任務中表現出色。
大型語言模型 英語
O
Mungert
1,131
2
Qwen2.5 VL 7B Instruct GPTQ Int3
Apache-2.0
這是一個基於Qwen2.5-VL-7B-Instruct模型的非官方GPTQ-Int3量化版本,適用於圖像文本到文本的多模態任務。
圖像生成文本
Transformers 支持多種語言

Q
hfl
577
1
Qwq 32B Bnb 4bit
Apache-2.0
QwQ-32B的4位量化版本,使用Bitsandbytes技術進行優化,適用於資源受限環境下的高效推理
大型語言模型
Transformers

Q
onekq-ai
167
2
Qwen2.5 VL 3B Instruct GPTQ Int4
Apache-2.0
這是Qwen2.5-VL-3B-Instruct模型的GPTQ-Int4量化版本,適用於圖像文本到文本的多模態任務,支持中文和英語。
圖像生成文本
Transformers 支持多種語言

Q
hfl
1,312
2
Smolvlm2 256M Video Instruct
Apache-2.0
SmolVLM2-256M-Video是一款輕量級多模態模型,專為分析視頻內容而設計,能夠處理視頻、圖像和文本輸入並生成文本輸出。
圖像生成文本
Transformers 英語

S
HuggingFaceTB
22.16k
53
Smolvlm2 500M Video Instruct
Apache-2.0
輕量級多模態模型,專為分析視頻內容設計,可處理視頻、圖像和文本輸入以生成文本輸出。
圖像生成文本
Transformers 英語

S
HuggingFaceTB
17.89k
56
Smolvlm2 2.2B Instruct
Apache-2.0
SmolVLM2-2.2B 是一款輕量級多模態模型,專為分析視頻內容而設計,可處理視頻、圖像和文本輸入並生成文本輸出。
圖像生成文本
Transformers 英語

S
HuggingFaceTB
62.56k
164
Molmo 7B D 0924 NF4
Apache-2.0
Molmo-7B-D-0924的4Bit量化版本,通過NF4量化策略降低顯存佔用,適用於顯存受限環境。
圖像生成文本
Transformers

M
Scoolar
1,259
1
Cogvideox1.5 5B
其他
CogVideoX 是一個類似於清影的開源視頻生成模型,支持高分辨率視頻生成
文本生成視頻 英語
C
THUDM
11.12k
36
Meta Llama 3.1 8B Instruct AWQ INT4
Llama 3.1 8B Instruct的INT4量化版本,基於AutoAWQ工具進行量化,適用於多語言對話場景。
大型語言模型
Transformers 支持多種語言

M
hugging-quants
348.23k
67
Dorna Llama3 8B Instruct Quantized4Bit
Dorna-Llama3-8B-Instruct的4位量化版本,針對波斯語優化,集成Flash Attention 2技術提升推理效率
大型語言模型
Transformers 支持多種語言

D
amirMohammadi
22
11
Rwkv 4 169m Pile
RWKV-4是一種融合RNN與Transformer優勢的大語言模型,具備高性能、快速推理和高效訓練特點
大型語言模型
Transformers

R
RWKV
5,698
8
Moss Moon 003 Sft
MOSS是一個支持插件增強的開源對話語言模型,參數量160億,支持中英文對話及工具調用能力。
大型語言模型
Transformers 支持多種語言

M
fnlp
98
127
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98