Deepseek R1 0528 FP4
MIT
DeepSeek AI社のDeepSeek R1 0528モデルの量子化バージョンで、最適化されたTransformerアーキテクチャに基づく自己回帰型言語モデルで、商用および非商用用途に使用できます。
大規模言語モデル
Safetensors
D
nvidia
372
17
Deepseek R1 0528 Quantized.w4a16
MIT
量子化処理を施したDeepSeek-R1-0528モデルで、重みをINT4データ型に量子化することで、GPUメモリとディスク容量の要件を大幅に削減します。
大規模言語モデル
Safetensors
D
RedHatAI
126
3
Wan2.1 VACE 1.3B
Apache-2.0
Wan2.1はオープンで先進的な動画生成基盤モデルセットで、様々な動画生成・編集タスクをサポートします。
テキスト生成ビデオ 複数言語対応
W
Wan-AI
1,520
44
Stable Diffusion 3.5 Large DF11
DFloat11フォーマットを使用してstabilityai/stable-diffusion-3.5-largeをロスレス圧縮したバージョン、サイズ30%削減、精度100%維持
画像生成
S
DFloat11
855
2
Qwen3 32B Quantized.w4a16
Apache-2.0
Qwen3-32BのINT4量子化バージョン、重み量子化によりディスクとGPUメモリ要件を75%削減、高性能を維持
大規模言語モデル
Transformers

Q
RedHatAI
2,213
5
Qwen3 14B FP8 Dynamic
Apache-2.0
Qwen3-14B-FP8-dynamicは最適化された大規模言語モデルで、活性化値と重みをFP8データ型に量子化することで、GPUメモリの要件を効果的に削減し、計算スループットを向上させます。
大規模言語モデル
Transformers

Q
RedHatAI
167
1
Qwen3 8B FP8 Dynamic
Apache-2.0
Qwen3-8B-FP8-dynamicはQwen3-8BモデルをFP8量子化で最適化したバージョンで、GPUメモリ要件とディスク使用量を大幅に削減しながら、元のモデルの性能を維持しています。
大規模言語モデル
Transformers

Q
RedHatAI
81
1
Wan2.1 T2V 14B
Apache-2.0
万2.1はオープンで先進的な大規模動画生成モデルであり、最先端の性能を備え、消費者向けGPUでの実行をサポートし、マルチタスク処理において卓越したパフォーマンスを発揮します。
テキスト生成ビデオ 複数言語対応
W
wan-community
17
0
Deepseek R1 Quantized.w4a16
MIT
DeepSeek-R1のINT4重み量子化バージョンで、重みのビット数を減らすことでGPUメモリとディスクスペースの要件を約50%削減し、元のモデルの性能を維持しています。
大規模言語モデル
D
RedHatAI
119
4
Deepcoder 14B Preview Exl2
DeepCoder-14B-PreviewはDeepSeek-R1-Distill-Qwen-14Bを基に開発されたコード生成モデルで、検証可能なプログラミング問題の解決に特化しています。
大規模言語モデル 英語
D
cgus
46
2
Hidream I1 Fast Nf4
MIT
HiDream-I1は170億パラメータを持つオープンソースの画像生成基盤モデルで、4ビット量子化バージョンは16GB VRAMで動作し、高速かつ高品質な画像生成を実現します。
画像生成
H
azaneko
19.22k
7
Wan2.1 I2V 14B 720P Diffusers
Apache-2.0
万2.1は包括的なオープンビデオ基盤モデルで、トップクラスの性能を有し、コンシューマー向けGPUをサポート、マルチタスク対応、視覚的テキスト生成、効率的なビデオVAEを備えています。
動画処理 複数言語対応
W
grnr9730
96
0
Wan2.1 T2V 14B
Apache-2.0
万2.1版はオープンで先進的な大規模動画生成モデルで、テキストから動画生成、画像から動画生成など多様なタスクをサポートし、コンシューマー向けGPUに対応しています。
テキスト生成ビデオ 複数言語対応
W
Isi99999
6,470
0
Wan2.1 T2V 1.3B
Apache-2.0
万2.1はビデオ生成の境界を突破することを目的とした包括的なオープンビデオ基盤モデルで、中英二言語テキストから動画生成、画像から動画生成など多様なタスクをサポートします。
テキスト生成ビデオ 複数言語対応
W
Isi99999
40
0
Mistral Small 24B Instruct 2501 GPTQ G128 W4A16 MSE
Apache-2.0
これはmistralai/Mistral-Small-24B-Instruct-2501モデルの4ビット量子化バージョンで、ConfidentialMind.comによって量子化され、より小さく、より高速なモデルを実現し、性能の損失は極めて小さいです。
大規模言語モデル 英語
M
ConfidentialMind
93
1
Lumina Gguf
LuminaのGGUF量子化バージョンは、高品質な画像生成に特化したモデルで、テキストプロンプトに基づいて高精度な画像を生成できます。
画像生成
L
calcuis
627
11
Deepseek R1 Distill Qwen 32B Quantized.w8a8
MIT
DeepSeek-R1-Distill-Qwen-32Bの量子化バージョン。INT8の重み量子化と活性化量子化により、メモリ要件を削減し、計算効率を向上させます。
大規模言語モデル
Transformers

D
RedHatAI
3,572
11
Deepseek R1 Distill Llama 70B FP8 Dynamic
MIT
DeepSeek-R1-Distill-Llama-70BのFP8量子化バージョン。重みと活性化のビット数を減らすことで推論性能を最適化します。
大規模言語モデル
Transformers

D
RedHatAI
45.77k
9
Pixart
PixArt-alpha/PixArt-XL-2-1024-MSを基にした量子化バージョンで、効率的なテキストから画像生成タスクをサポート
画像生成 英語
P
calcuis
459
2
Svdq Int4 Flux.1 Schnell
Apache-2.0
FLUX.1-schnellのINT4量子化バージョン、SVDQuant技術に基づく効率的なテキスト生成画像
テキスト生成画像 英語
S
mit-han-lab
20.14k
9
Sd3.5 Medium Gguf
その他
Stable Diffusion 3.5 MediumのGGUF量子化バージョンで、テキストから画像を生成するタスクに適しており、旧式デバイスでも動作可能です。
画像生成 英語
S
calcuis
3,232
13
Sd3.5 Large Turbo
その他
Stable Diffusion 3.5 Large TurboのGGUF量子化バージョンで、画像生成タスクに適しており、より効率的な実行性能を提供します。
テキスト生成画像 英語
S
calcuis
108
5
Molmo 7B D Bnb 4bit
Apache-2.0
Molmo-7B-DはBnB 4ビット量子化を施した大規模言語モデルで、モデルサイズが30GBから7GBに縮小され、VRAM要件が約12GBに抑えられます。
大規模言語モデル
Transformers

M
cyan2k
1,994
17
Llama 3.2 1B Instruct FP8
Llama-3.2-1B-InstructのFP8量子化バージョンで、多言語シナリオにおけるビジネスおよび研究用途に適しており、オリジナルモデルに近い性能を発揮します。
大規模言語モデル
Safetensors 複数言語対応
L
RedHatAI
1,718
3
Molmo 7B O Bnb 4bit
Apache-2.0
Molmo-7B-Oの4bit量子化バージョンで、VRAM要件を大幅に削減し、リソースが限られた環境に適しています。
大規模言語モデル
Transformers

M
cyan2k
2,467
11
Llama 3.1 8B Instruct FP8
Meta Llama 3.1 8B InstructモデルのFP8量子化バージョン、最適化されたtransformerアーキテクチャの自己回帰型言語モデルで、128Kのコンテキスト長をサポートします。
大規模言語モデル
Transformers

L
nvidia
3,700
21
FLUX.1 Dev Qint4
その他
FLUX.1-dev はテキストから画像を生成するモデルで、Optimum Quantoを使用してINT4形式に量子化されており、非商用目的に適しています。
テキスト生成画像 英語
F
Disty0
455
12
Meta Llama 3.1 8B Instruct Quantized.w4a16
Meta-Llama-3.1-8B-Instructの量子化バージョンで、ディスク容量とGPUメモリの要件を削減するように最適化されており、英語のビジネスおよび研究用途のチャットアシスタントシナリオに適しています。
大規模言語モデル
Transformers 複数言語対応

M
RedHatAI
27.51k
28
Meta Llama 3.1 8B Instruct GPTQ INT4
これはMeta-Llama-3.1-8B-InstructモデルのINT4量子化バージョンで、GPTQアルゴリズムを使用して量子化されており、多言語対話シナリオに適しています。
大規模言語モデル
Transformers 複数言語対応

M
hugging-quants
128.18k
25
Meta Llama 3.1 405B Instruct FP8 Dynamic
Meta-Llama-3.1-405B-InstructのFP8量子化バージョンで、多言語の商業および研究用途に適しており、特にアシスタントロボットシナリオ向けに最適化されています。
大規模言語モデル
Transformers 複数言語対応

M
RedHatAI
97
15
Meta Llama 3.1 8B Instruct FP8
Meta-Llama-3.1-8B-InstructのFP8量子化バージョンで、多言語の商用・研究用途に適しており、アシスタントのようなチャットシナリオに特に最適化されています。
大規模言語モデル
Transformers 複数言語対応

M
RedHatAI
361.53k
42
Deepseek Coder V2 Lite Instruct FP8
その他
DeepSeek-Coder-V2-Lite-InstructのFP8量子化バージョンで、英語の商用および研究用途に適しており、推論効率が最適化されています。
大規模言語モデル
Transformers

D
RedHatAI
11.29k
7
Mapo Beta
MaPOは参照サンプル不要で、高効率かつメモリに優しいテキストから画像への拡散モデルアライメント手法です
テキスト生成画像
M
mapo-t2i
30
6
Koala Lightning 700m
KOALA-Lightning-700MはSDXL-Lightningを基に知識蒸留で訓練された効率的なテキスト生成画像モデルで、生成品質を維持しながら推論速度を大幅に向上
画像生成
K
etri-vilab
170
6
Koala Lightning 1b
KOALA-Lightning-1BはSDXL-Lightningに基づく知識蒸留モデルで、U-Net構造を圧縮することで効率的なテキストから画像生成を実現、パラメータ規模1.16B
テキスト生成画像
K
etri-vilab
390
7
Psyfighter2 13B Vore GGUF
これはPsyfighter2-13B-voreモデルの量子化バージョンで、ストーリーライティング、チャット会話、文字冒険ゲームに最適化されています。
大規模言語モデル 英語
P
SnakyMcSnekFace
230
5
Sotemixv2
Openrail
SoteMix V2.1は、安定拡散技術を基盤とした高解像度テキスト生成画像モデルで、芸術とアニメスタイルの画像生成に特化しています。
画像生成 複数言語対応
S
Disty0
25
3
Lcm Lora Ssd 1b
MIT
SSD-1Bモデルを基にLCM-LoRA技術で微調整したテキストから画像を生成するモデルで、高品質な画像を高速生成可能
テキスト生成画像
L
openskyml
73
1
Llama 2 13B Fp16 French
Apache-2.0
Llama-2-13b-chatをファインチューニングしたフランス語Q&Aモデル、バロックスタイルのテキスト生成などのタスクをサポート
大規模言語モデル 複数言語対応
L
Nekochu
79
11
Tiny Sd
Openrail
Realistic_Vision_V4.0モデルを蒸留最適化した軽量テキスト画像生成モデルで、基本SD1.5比80%高速
画像生成
T
segmind
23.05k
63
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98