B

BAAI Bge M3 Int8

由 libryo-ai 开发
BAAI/bge-m3的ONNX INT8量化版本,适用于密集检索任务,优化了与Vespa Embedding的兼容性。
下载量 1,007
发布时间 : 6/11/2024

模型简介

该模型是BAAI/bge-m3的量化版本,主要用于文本嵌入和密集检索任务,通过INT8量化提高了推理效率。

模型特点

INT8量化
通过INT8量化技术优化模型,提高推理速度并减少内存占用。
Vespa Embedding兼容
专为与Vespa Embedding配合使用而优化,适用于大规模检索场景。
高效推理
使用ONNX Runtime进行量化,支持AVX-512 VNNI指令集,提升计算效率。

模型能力

文本嵌入
密集检索

使用案例

信息检索
语义搜索
用于构建高效的语义搜索引擎,提升搜索结果的相关性。
推荐系统
内容推荐
通过文本嵌入技术,实现基于内容相似度的推荐系统。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase