Qwen2.5 VL 32B Instruct FP8 Dynamic
Apache-2.0
Qwen2.5-VL-32B-InstructモデルをベースとしたFP8量子化バージョンで、ビジュアル - テキスト入力とテキスト出力をサポートし、効率的な推論シーンに適しています。
画像生成テキスト
Transformers 英語

Q
BCCard
140
1
Qwen3 235B A22B FP8 Dynamic
Apache-2.0
Qwen3-235B-A22BモデルのFP8量子化バージョンで、GPUメモリの要件を効果的に削減し、計算スループットを向上させ、さまざまな自然言語処理シナリオに適しています。
大規模言語モデル
Transformers

Q
RedHatAI
2,198
2
Bielik 4.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
このモデルはBielik-4.5B-v3.0-InstructのFP8量子化バージョンで、AutoFP8技術により重みと活性化をFP8データ型に量子化し、ディスク容量とGPUメモリ要件を約50%削減します。
大規模言語モデル その他
B
speakleash
74
1
Bielik 1.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
これはBielik-1.5B-v3.0-Instructモデルを基にしたFP8動的量子化バージョンで、vLLMまたはSGLang推論フレームワークに適応しています。AutoFP8量子化技術により、パラメータのビット数を16ビットから8ビットに削減し、ディスク容量とGPUメモリ要件を大幅に削減しました。
大規模言語モデル その他
B
speakleash
31
1
Qwen3 30B A3B FP8 Dynamic
Apache-2.0
Qwen3-30B-A3B-FP8-dynamicはQwen3-30B-A3BモデルをFP8量子化で最適化したバージョンで、メモリ要件と計算コストを大幅に削減しながら、元のモデルの高い精度を維持しています。
大規模言語モデル
Transformers

Q
RedHatAI
187
2
Qwen3 8B FP8 Dynamic
Apache-2.0
Qwen3-8B-FP8-dynamicはQwen3-8BモデルをFP8量子化で最適化したバージョンで、GPUメモリ要件とディスク使用量を大幅に削減しながら、元のモデルの性能を維持しています。
大規模言語モデル
Transformers

Q
RedHatAI
81
1
Qwen3 32B FP8 Dynamic
Apache-2.0
Qwen3-32Bを基にFP8動的量子化を施した効率的な言語モデルで、メモリ要件を大幅に削減し計算効率を向上
大規模言語モデル
Transformers

Q
RedHatAI
917
8
Qwen3 30B A3B FP8
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、密モデルと混合専門家(MoE)モデルの完全なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Transformers

Q
Qwen
107.85k
57
Gemma 3 27b It FP8 Dynamic
Apache-2.0
これはgoogle/gemma-3-27b-itの量子化バージョンで、FP8データ型を使用して重みを量子化し、ビジュアル - テキスト入力を受け取り、テキストを出力するのに適しており、vLLMによる効率的なデプロイで推論が可能です。
画像生成テキスト
Transformers 英語

G
RedHatAI
1,608
1
Qwen3 0.6B FP8
Apache-2.0
Qwen3-0.6B-FP8は通義千問シリーズの大規模言語モデルの最新バージョンで、0.6BパラメータのFP8量子化版を提供し、思考モードの自由な切り替えと多言語タスクをサポートします。
大規模言語モデル
Transformers

Q
Qwen
5,576
43
FLUX.1 Dev ControlNet Union Pro 2.0 Fp8
その他
これはShakker-Labs/FLUX.1-dev-ControlNet-Union-Pro-2.0モデルのFP8量子化バージョンで、PyTorchネイティブFP8サポートにより元のBFloat16フォーマットから量子化され、推論性能が最適化されています。
画像生成 英語
F
ABDALLALSWAITI
2,023
15
Mistral Small 3.1 24B Instruct 2503 FP8 Dynamic
Apache-2.0
これはMistral3アーキテクチャに基づく24Bパラメータの条件付き生成モデルで、FP8動的量子化により最適化されており、多言語テキスト生成と視覚理解タスクに適しています。
M
RedHatAI
2,650
5
QWQ 32B FP8
Apache-2.0
QwQ-32B-FP8はQwQ-32BモデルのFP8量子化バージョンで、BF16バージョンとほぼ同じ精度を維持しながら、より高速な推論をサポートします。
大規模言語モデル
Transformers

Q
qingcheng-ai
144
6
Qwq 32B FP8 Dynamic
MIT
QwQ-32BのFP8量子化バージョン、動的量子化技術により50%のストレージとメモリ要件を削減、99.75%の元のモデル精度を維持
大規模言語モデル
Transformers

Q
RedHatAI
3,107
8
Qwq 32B FP8 Dynamic
MIT
QwQ-32BのFP8量子化バージョン、動的量子化技術により50%のストレージとメモリ要件を削減、99.75%の元モデル精度を維持
大規模言語モデル
Transformers

Q
nm-testing
3,895
3
Qwen2.5 VL 7B Instruct FP8 Dynamic
Apache-2.0
Qwen2.5-VL-7B-InstructのFP8量子化バージョンで、vLLMを通じて効率的なビジュアル - テキスト推論をサポートします。
テキスト生成画像
Transformers 英語

Q
RedHatAI
25.18k
1
Qwen2.5 VL 3B Instruct FP8 Dynamic
Apache-2.0
Qwen2.5-VL-3B-InstructのFP8量子化バージョンで、視覚-テキスト入力とテキスト出力をサポートし、推論効率を最適化しています。
テキスト生成画像
Transformers 英語

Q
RedHatAI
112
1
Deepseek R1 Distill Llama 70B FP8 Dynamic
MIT
DeepSeek-R1-Distill-Llama-70BのFP8量子化バージョン。重みと活性化のビット数を減らすことで推論性能を最適化します。
大規模言語モデル
Transformers

D
RedHatAI
45.77k
9
Flex.1 Alpha Fp8
Apache-2.0
Flex.1-alpha-Fp8 は Flex.1-alpha モデルを基にした safetensors 形式の float8_e4m3fn 重みバージョンで、テキストから画像を生成するタスクに適しています。
テキスト生成画像 英語
F
gmonsoon
225
5
SD3.5 Large Fp8
その他
Stable Diffusion 3.5 LargeのFP8量子化バージョンで、テキストから画像を生成するタスクに使用されます。
画像生成
S
dyedd
88
2
Bamba 9B V1
Apache-2.0
Bamba-9BはMamba-2アーキテクチャに基づくデコーダ専用言語モデルで、2段階トレーニングを経ており、幅広いテキスト生成タスクに優れています。
大規模言語モデル
B
ibm-ai-platform
16.19k
35
Pixtral 12b FP8 Dynamic
Apache-2.0
pixtral-12b-FP8-dynamicはmistral-community/pixtral-12bの量子化バージョンで、重みと活性化をFP8データ型に量子化することで、ディスク容量とGPUメモリの要件を約50%削減し、複数の言語の商用および研究用途に適しています。
テキスト生成画像
Safetensors 複数言語対応
P
RedHatAI
87.31k
9
Llama 3.2 1B Instruct FP8
Llama-3.2-1B-InstructのFP8量子化バージョンで、多言語シナリオにおけるビジネスおよび研究用途に適しており、オリジナルモデルに近い性能を発揮します。
大規模言語モデル
Safetensors 複数言語対応
L
RedHatAI
1,718
3
Llama 3.2 3B Instruct FP8 Dynamic
Llama-3.2-3B-InstructのFP8量子化バージョンで、多言語の商業および研究用途に適しており、特にアシスタントのようなチャットシナリオに最適です。
大規模言語モデル
Safetensors 複数言語対応
L
RedHatAI
986
3
Llama 3.2 11B Vision Instruct FP8 Dynamic
これはLlama-3.2-11B-Vision-Instructをベースにした量子化モデルで、多言語の商業および研究用途に適しており、アシスタントのようなチャットシーンに使用できます。
画像生成テキスト
Safetensors 複数言語対応
L
RedHatAI
2,295
23
Meta Llama 3.1 70B FP8
Meta-Llama-3.1-70BのFP8量子化バージョンで、多言語のビジネスや研究用途に適しており、重みと活性化をFP8形式で量子化することで、約50%のストレージとメモリ要件を削減します。
大規模言語モデル
Transformers 複数言語対応

M
RedHatAI
191
2
Meta Llama 3.1 8B FP8
Meta-Llama-3.1-8BのFP8量子化バージョンで、多言語のビジネスや研究用途に適しています。
大規模言語モデル
Transformers 複数言語対応

M
RedHatAI
4,154
7
Meta Llama 3.1 70B Instruct FP8
Meta-Llama-3.1-70B-InstructのFP8量子化バージョンで、多言語の商業および研究用途に適しており、特にアシスタントのようなチャットシナリオに最適です。
大規模言語モデル
Transformers 複数言語対応

M
RedHatAI
71.73k
45
Meta Llama 3.1 8B Instruct FP8
Meta-Llama-3.1-8B-InstructのFP8量子化バージョンで、多言語の商用・研究用途に適しており、アシスタントのようなチャットシナリオに特に最適化されています。
大規模言語モデル
Transformers 複数言語対応

M
RedHatAI
361.53k
42
Deepseek Coder V2 Lite Instruct FP8
その他
DeepSeek-Coder-V2-Lite-InstructのFP8量子化バージョンで、英語の商用および研究用途に適しており、推論効率が最適化されています。
大規模言語モデル
Transformers

D
RedHatAI
11.29k
7
Meta Llama 3 70B Instruct FP8
Meta-Llama-3-70B-Instruct-FP8はMeta-Llama-3-70B-Instructの量子化バージョンで、FP8量子化によりディスク容量とGPUメモリの要件を削減し、同時に高いパフォーマンスを維持し、英語のビジネスおよび研究用途に適しています。
大規模言語モデル
Transformers 英語

M
RedHatAI
22.10k
13
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98