B

BAAI Bge M3 Int8

由libryo-ai開發
BAAI/bge-m3的ONNX INT8量化版本,適用於密集檢索任務,優化了與Vespa Embedding的兼容性。
下載量 1,007
發布時間 : 6/11/2024

模型概述

該模型是BAAI/bge-m3的量化版本,主要用於文本嵌入和密集檢索任務,通過INT8量化提高了推理效率。

模型特點

INT8量化
通過INT8量化技術優化模型,提高推理速度並減少內存佔用。
Vespa Embedding兼容
專為與Vespa Embedding配合使用而優化,適用於大規模檢索場景。
高效推理
使用ONNX Runtime進行量化,支持AVX-512 VNNI指令集,提升計算效率。

模型能力

文本嵌入
密集檢索

使用案例

信息檢索
語義搜索
用於構建高效的語義搜索引擎,提升搜索結果的相關性。
推薦系統
內容推薦
通過文本嵌入技術,實現基於內容相似度的推薦系統。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase