Bytedance BAGEL 7B MoT INT8
Apache-2.0
BAGELはオープンソースの7Bアクティブパラメータマルチモーダル基盤モデルで、マルチモーダル理解と生成タスクをサポートします
テキスト生成画像
B
Gapeleon
190
20
Meta Llama 3.1 8B Instruct Quantized.w8a8
これはMeta-Llama-3.1-8B-InstructモデルのINT8量子化バージョンで、重み量子化と活性化量子化により最適化され、多言語のビジネスや研究用途に適しています。
大規模言語モデル
Transformers 複数言語対応

M
RedHatAI
9,087
16
Mistral Small 3.1 24B Instruct 2503 Quantized.w8a8
Apache-2.0
これはRed HatとNeural Magicによって最適化されたINT8量子化されたMistral-Small-3.1-24B-Instruct-2503モデルで、高速応答と低遅延シナリオに適しています。
M
RedHatAI
833
2
Qwq 32B INT8 W8A8
Apache-2.0
QWQ-32BのINT8量子化バージョン、重みと活性化のビット数を減らして性能を最適化
大規模言語モデル
Transformers 英語

Q
ospatch
590
4
Qwen2.5 VL 7B Instruct Quantized.w8a8
Apache-2.0
Qwen2.5-VL-7B-Instructの量子化バージョンで、視覚-テキスト入力とテキスト出力をサポートし、INT8重み量子化により推論効率を最適化
画像生成テキスト
Transformers 英語

Q
RedHatAI
1,992
3
Deepseek R1 Distill Qwen 32B Quantized.w8a8
MIT
DeepSeek-R1-Distill-Qwen-32BのINT8量子化バージョンで、重み量子化と活性化値量子化によりVRAM使用量を削減し計算効率を向上。
大規模言語モデル
Transformers

D
neuralmagic
2,324
9
Deepseek R1 Distill Qwen 14B Quantized.w8a8
MIT
DeepSeek-R1-Distill-Qwen-14Bの量子化バージョンで、INT8量子化により重みと活性化を最適化し、GPUメモリ要件を低減し計算効率を向上させました。
大規模言語モデル
Transformers

D
neuralmagic
765
2
Qwen2.5 7B Instruct Quantized.w8a8
Apache-2.0
Qwen2.5-7B-InstructのINT8量子化バージョンで、商業および研究用途の多言語シナリオに適しており、メモリ要件と計算スループットを最適化しています。
大規模言語モデル 英語
Q
RedHatAI
412
1
FLUX.1 Dev Qint8
その他
FLUX.1-devはテキストから画像を生成する拡散モデルで、Optimum QuantoによりINT8形式に量子化されており、非商用用途に適しています。
テキスト生成画像 英語
F
Disty0
2,617
12
BAAI Bge M3 Int8
MIT
BAAI/bge-m3のONNX INT8量子化バージョンで、密集検索タスクに適しており、Vespa Embeddingとの互換性を最適化しています。
テキスト埋め込み
Transformers

B
libryo-ai
1,007
1
Bge Large En V1.5 Quant
MIT
BGE-large-en-v1.5の量子化(INT8)ONNXバリアント、DeepSparseによる推論加速
テキスト埋め込み
Transformers 英語

B
RedHatAI
1,094
22
Roberta Base Go Emotions Onnx
MIT
これはRoBERTa-base-go_emotionsモデルのONNXバージョンで、フル精度とINT8量子化をサポートし、マルチラベル感情分析タスクに使用されます。
テキスト分類
Transformers 英語

R
SamLowe
41.50k
20
Vit Base Patch16 224 Int8 Static Inc
Apache-2.0
これはIntel® Neural Compressorを使用して学習後に静的量子化されたINT8 PyTorchモデルで、GoogleのViTモデルを基にファインチューニングされており、高い精度を維持しながら大幅にモデルサイズを削減しています。
画像分類
Transformers

V
Intel
82
1
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
これはDistilBERTベース未エンコードモデルのINT8量子化バージョンで、質問応答タスク向けに設計されており、学習後静的量子化によりモデルサイズと推論速度が最適化されています。
質問応答システム
Transformers

D
Intel
1,737
4
Ibert Roberta Large
I-BERTはRoBERTa-largeの純整数量子化バージョンで、INT8でパラメータを保存し整数演算で推論を実行することで、最大4倍の推論加速を実現します。
大規模言語モデル
Transformers

I
kssteven
45
0
Bert Large Uncased Whole Word Masking Squad Int8 0001
全単語マスキング技術を用いて事前学習され、SQuAD v1.1で微調整されたBERT-largeの英語質問応答モデルで、INT8精度に量子化されています。
質問応答システム
Transformers

B
dkurt
23
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98