# 低精度推論

Medgemma 4b It 8bit
その他
MedGemma-4B-IT-8bitはGoogleのMedGemmaモデルをMLX形式に変換したバージョンで、医療分野のビジュアル言語タスクに特化しています。
画像生成テキスト Transformers
M
mlx-community
116
1
Devstral Small 2505 Bf16
Apache-2.0
Devstral-Small-2505-bf16は、MistralAIのDevstral-Small-2505モデルを変換したMLX形式のモデルで、多言語処理タスクをサポートします。
大規模言語モデル 複数言語対応
D
mlx-community
207
1
Qwen2.5 VL 3B Instruct MLX 8bits
これはQwen2.5-VL-3B-Instructモデルを基にした8ビット量子化バージョンで、MLXフレームワーク向けに最適化されており、画像テキスト生成タスクをサポートします。
画像生成テキスト Transformers 英語
Q
moot20
27
1
Controlnet Noobai Openpose Sdxl Fp16
Stable Diffusion XLをベースにしたControlNetモデルで、OpenPoseによる姿勢制御に特化し、特定の人体姿勢に合致した画像を生成します。
画像生成
C
r3gm
37
0
Bge Reranker V2 Gemma IQ4 NL GGUF
Apache-2.0
これはBAAI/bge-reranker-v2-gemmaモデルのGGUF形式変換バージョンで、llama.cppフレームワークに適しており、多言語テキスト分類タスクをサポートします。
テキスト埋め込み その他
B
zimajava
20
1
Blip2 Opt 2.7b 8bit
MIT
BLIP-2は画像エンコーダーと大規模言語モデルを組み合わせた視覚言語事前学習モデルで、画像からテキストを生成するタスクに使用されます。
画像生成テキスト Transformers 英語
B
Mediocreatmybest
69
2
Vit Base Patch16 224 Int8 Static Inc
Apache-2.0
これはIntel® Neural Compressorを使用して学習後に静的量子化されたINT8 PyTorchモデルで、GoogleのViTモデルを基にファインチューニングされており、高い精度を維持しながら大幅にモデルサイズを削減しています。
画像分類 Transformers
V
Intel
82
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase