Qwen3 Reranker 0.6B W4A16 G128
Qwen3-Reranker-0.6BのGPTQ量子化バージョンで、VRAM使用量を最適化し、精度損失が少ない
ダウンロード数 151
リリース時間 : 6/7/2025
モデル概要
これはQwen/Qwen3-Reranker-0.6Bに基づくGPTQ量子化モデルで、主にテキスト分類タスクに使用されます。量子化技術によりVRAM使用量を大幅に削減し、同時に高い精度を維持しています。
モデル特徴
VRAM最適化
VRAM使用量が3228Mから2124M(FA2なし)に減少し、リソース効率が大幅に向上します
精度保持
予想される精度損失は<5%で、実際のテストでは埋め込みモデルの精度損失は約0.7%のみです
高効率量子化
GPTQ量子化技術を使用し、Ultrachat、T2Ranking、COIG - CQIAをキャリブレーションセットとして使用します
モデル能力
テキスト分類
テキスト再並べ替え
使用事例
情報検索
検索結果の再並べ替え
検索エンジンが返した結果を再並べ替えして関連性を向上させます
テキスト処理
文書分類
大量の文書を自動的に分類します
おすすめAIモデル
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-itの量子化バージョンで、多言語画像記述タスクをサポートします。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
その他
Colossus Project FluxのNunchaku量子化バージョンで、テキストプロンプトに基づいて高品質な画像を生成することを目的としています。このモデルは、推論効率を最適化しながら、性能損失を最小限に抑えます。
画像生成 英語
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
これはQwen2.5-VL-7Bモデルに基づく静的量子化バージョンで、画像記述生成タスクに特化し、複数の言語をサポートしています。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8は、Qwen2.5-VL-7B-Instructモデルをベースに、olmOCR-mix-0225データセットで微調整した後、FP8バージョンに量子化した文書OCRモデルです。
画像生成テキスト
Transformers 英語

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128kはQwen3 - 1.7Bをベースに開発された、プロキシ型ネットワーク検索と軽量ブラウジングに特化したモデルで、モバイルデバイスでも効率的に動作します。
大規模言語モデル
Transformers 英語

L
Mungert
263
2