B

Bge Large En V1.5 Quant

RedHatAIによって開発
BGE-large-en-v1.5の量子化(INT8)ONNXバリアント、DeepSparseによる推論加速
ダウンロード数 1,094
リリース時間 : 10/3/2023

モデル概要

これはBGE-large-en-v1.5埋め込みモデルの量子化バージョンで、Sparsifyを使用して量子化最適化を行い、DeepSparseSentenceTransformersで推論を加速します。効率的なテキスト埋め込みが必要なシナリオに適しています。

モデル特徴

効率的な推論
DeepSparseにより、10コアのノートパソコンで4.8倍の遅延改善、16コアのAWSインスタンスで3.5倍の改善を実現
量子化最適化
Sparsifyを使用したINT8量子化により、モデル性能を維持しながら計算リソース要件を削減
マルチタスクサポート
意味的テキスト類似性、テキスト分類、ペア分類など、さまざまな自然言語処理タスクをサポート

モデル能力

テキスト埋め込み生成
意味的類似性計算
テキスト分類
文ペア分類

使用事例

テキスト類似性
ドキュメント検索
情報検索システム向けにドキュメント間の意味的類似性を計算
STSベンチマークで86.6%のコサイン類似性ピアソン相関係数を達成
重複質問検出
意味的に類似した重複質問を識別
SprintDuplicateQuestionsデータセットで99.85%の精度を達成
テキスト分類
感情分析
テキストの感情傾向を分類
AmazonCounterfactual分類タスクで75.54%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase