Deepseek R1 0528 FP4
MIT
DeepSeek AI 公司的 DeepSeek R1 0528 模型的量化版本,基於優化的 Transformer 架構的自迴歸語言模型,可用於商業和非商業用途。
大型語言模型
Safetensors
D
nvidia
372
17
Deepseek R1 0528 Quantized.w4a16
MIT
經過量化處理的DeepSeek-R1-0528模型,通過將權重量化為INT4數據類型,顯著降低了GPU內存和磁盤空間的需求。
大型語言模型
Safetensors
D
RedHatAI
126
3
Wan2.1 VACE 1.3B
Apache-2.0
Wan2.1是一套開放且先進的視頻生成基礎模型,支持多種視頻生成和編輯任務。
文本生成視頻 支持多種語言
W
Wan-AI
1,520
44
Stable Diffusion 3.5 Large DF11
採用DFloat11格式對stabilityai/stable-diffusion-3.5-large進行無損壓縮的版本,體積縮減30%,精度保持100%
圖像生成
S
DFloat11
855
2
Qwen3 32B Quantized.w4a16
Apache-2.0
Qwen3-32B的INT4量化版本,通過權重量化減少75%的磁盤和GPU內存需求,保持高性能
大型語言模型
Transformers

Q
RedHatAI
2,213
5
Qwen3 14B FP8 Dynamic
Apache-2.0
Qwen3-14B-FP8-dynamic 是一個經過優化的大語言模型,通過將激活值和權重量化為 FP8 數據類型,有效降低了 GPU 內存需求,提高了計算吞吐量。
大型語言模型
Transformers

Q
RedHatAI
167
1
Qwen3 8B FP8 Dynamic
Apache-2.0
Qwen3-8B-FP8-dynamic是基於Qwen3-8B模型通過FP8量化優化的版本,顯著降低了GPU內存需求和磁盤空間佔用,同時保持了原始模型的性能。
大型語言模型
Transformers

Q
RedHatAI
81
1
Wan2.1 T2V 14B
Apache-2.0
萬2.1是一個開放且先進的大規模視頻生成模型,具備頂尖性能,支持消費級GPU運行,並在多任務處理中表現卓越。
文本生成視頻 支持多種語言
W
wan-community
17
0
Deepseek R1 Quantized.w4a16
MIT
DeepSeek-R1的INT4權重量化版本,通過減少權重位數降低GPU內存和磁盤空間需求約50%,保持原始模型性能。
大型語言模型
Safetensors
D
RedHatAI
119
4
Deepcoder 14B Preview Exl2
DeepCoder-14B-Preview是基於DeepSeek-R1-Distill-Qwen-14B開發的代碼生成模型,專注於可驗證編程問題的解決。
大型語言模型 英語
D
cgus
46
2
Hidream I1 Fast Nf4
MIT
HiDream-I1是擁有170億參數的開源圖像生成基礎模型,4比特量化版本可在16GB顯存下運行,實現快速高質量的圖像生成。
圖像生成
H
azaneko
19.22k
7
Wan2.1 I2V 14B 720P Diffusers
Apache-2.0
萬2.1是一套全面開放的視頻基礎模型,具有頂尖性能,支持消費級GPU,多任務支持,視覺文本生成和高效視頻VAE。
視頻處理 支持多種語言
W
grnr9730
96
0
Wan2.1 T2V 14B
Apache-2.0
萬2.1版是一個開放且先進的大規模視頻生成模型,支持文本生成視頻、圖像生成視頻等多種任務,適配消費級顯卡。
文本生成視頻 支持多種語言
W
Isi99999
6,470
0
Wan2.1 T2V 1.3B
Apache-2.0
萬2.1是一套全面開放的視頻基礎模型,旨在突破視頻生成的邊界,支持中英雙語文本生成視頻、圖像生成視頻等多種任務。
文本生成視頻 支持多種語言
W
Isi99999
40
0
Mistral Small 24B Instruct 2501 GPTQ G128 W4A16 MSE
Apache-2.0
這是mistralai/Mistral-Small-24B-Instruct-2501模型的4位量化版本,由ConfidentialMind.com量化,實現了更小、更快的模型,同時性能損失極小。
大型語言模型 英語
M
ConfidentialMind
93
1
Lumina Gguf
Lumina的GGUF量化版本是一個專為生成優質圖像而設計的模型,支持基於文本提示生成高匹配度的圖像。
圖像生成
L
calcuis
627
11
Deepseek R1 Distill Qwen 32B Quantized.w8a8
MIT
DeepSeek-R1-Distill-Qwen-32B的量化版本,通過INT8權重量化和激活量化減少內存需求並提高計算效率
大型語言模型
Transformers

D
RedHatAI
3,572
11
Deepseek R1 Distill Llama 70B FP8 Dynamic
MIT
DeepSeek-R1-Distill-Llama-70B的FP8量化版本,通過減少權重和激活的位數來優化推理性能
大型語言模型
Transformers

D
RedHatAI
45.77k
9
Pixart
基於PixArt-alpha/PixArt-XL-2-1024-MS的量化版本,支持高效文生圖任務
圖像生成 英語
P
calcuis
459
2
Svdq Int4 Flux.1 Schnell
Apache-2.0
FLUX.1-schnell的INT4量化版本,基於SVDQuant技術實現高效文本生成圖像
文本生成圖像 英語
S
mit-han-lab
20.14k
9
Sd3.5 Medium Gguf
其他
Stable Diffusion 3.5 Medium的GGUF量化版本,適用於文生圖任務,支持在老舊設備上運行。
圖像生成 英語
S
calcuis
3,232
13
Sd3.5 Large Turbo
其他
Stable Diffusion 3.5 Large Turbo的GGUF量化版本,適用於圖像生成任務,提供更高效的運行性能。
文本生成圖像 英語
S
calcuis
108
5
Molmo 7B D Bnb 4bit
Apache-2.0
Molmo-7B-D是一個經過BnB 4bit量化的大語言模型,模型體積從30GB減小到7GB,顯存需求降低至約12GB。
大型語言模型
Transformers

M
cyan2k
1,994
17
Llama 3.2 1B Instruct FP8
Llama-3.2-1B-Instruct的FP8量化版本,適用於多語言場景的商業和研究用途,性能接近原始模型。
大型語言模型
Safetensors 支持多種語言
L
RedHatAI
1,718
3
Molmo 7B O Bnb 4bit
Apache-2.0
Molmo-7B-O的4bit量化版本,顯著降低顯存需求,適合資源有限的環境。
大型語言模型
Transformers

M
cyan2k
2,467
11
Hands XL
這是一個結合了Hands XL、SD 1.5和FLUX.1-dev技術的文本生成圖像模型,專注於高質量圖像生成。
圖像生成
H
xyy1551308532
27
2
Llama 3.1 8B Instruct FP8
Meta Llama 3.1 8B Instruct模型的FP8量化版本,採用優化的transformer架構的自迴歸語言模型,支持128K上下文長度。
大型語言模型
Transformers

L
nvidia
3,700
21
FLUX.1 Dev Qint4
其他
FLUX.1-dev 是一個文本生成圖像的模型,已使用 Optimum Quanto 量化為 INT4 格式,適用於非商業用途。
文本生成圖像 英語
F
Disty0
455
12
Meta Llama 3.1 8B Instruct Quantized.w4a16
Meta-Llama-3.1-8B-Instruct的量化版本,經過優化減少磁盤空間和GPU內存需求,適用於英文商業和研究用途的聊天助手場景。
大型語言模型
Transformers 支持多種語言

M
RedHatAI
27.51k
28
Meta Llama 3.1 8B Instruct GPTQ INT4
這是Meta-Llama-3.1-8B-Instruct模型的INT4量化版本,使用GPTQ算法進行量化,適用於多語言對話場景。
大型語言模型
Transformers 支持多種語言

M
hugging-quants
128.18k
25
Meta Llama 3.1 405B Instruct FP8 Dynamic
Meta-Llama-3.1-405B-Instruct的FP8量化版本,適用於多語言的商業和研究用途,特別優化用於助手機器人場景。
大型語言模型
Transformers 支持多種語言

M
RedHatAI
97
15
Meta Llama 3.1 8B Instruct FP8
Meta-Llama-3.1-8B-Instruct的FP8量化版本,適用於多語言的商業和研究用途,特別優化用於類似助手的聊天場景。
大型語言模型
Transformers 支持多種語言

M
RedHatAI
361.53k
42
Deepseek Coder V2 Lite Instruct FP8
其他
DeepSeek-Coder-V2-Lite-Instruct的FP8量化版本,適用於英語的商業和研究用途,優化了推理效率。
大型語言模型
Transformers

D
RedHatAI
11.29k
7
Mapo Beta
MaPO是一種無需參考樣本、高效節能且內存友好的文生圖擴散模型對齊方法
文本生成圖像
M
mapo-t2i
30
6
Koala Lightning 700m
KOALA-Lightning-700M是基於SDXL-Lightning通過知識蒸餾訓練的高效文本生成圖像模型,在保持生成質量的同時顯著提升推理速度
圖像生成
K
etri-vilab
170
6
Koala Lightning 1b
KOALA-Lightning-1B是基於SDXL-Lightning的知識蒸餾模型,通過壓縮U-Net結構實現高效文本生成圖像,參數規模1.16B
文本生成圖像
K
etri-vilab
390
7
Psyfighter2 13B Vore GGUF
這是Psyfighter2-13B-vore模型的量化版本,專為故事寫作、聊天對話和文字冒險遊戲優化。
大型語言模型 英語
P
SnakyMcSnekFace
230
5
Dreamshaper Xl Lightning
基於Stable Diffusion XL微調的高效文本到圖像生成模型,支持快速生成藝術性圖像
圖像生成 支持多種語言
D
Lykon
10.57k
59
Sotemixv2
Openrail
SoteMix V2.1 是一個基於穩定擴散的高分辨率文本生成圖像模型,專注於藝術和動漫風格的圖像生成。
圖像生成 支持多種語言
S
Disty0
25
3
Lcm Lora Ssd 1b
MIT
基於SSD-1B模型通過LCM-LoRA技術微調的文本生成圖像模型,支持快速生成高質量圖像
文本生成圖像
L
openskyml
73
1
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98