B

Bge Large En V1.5 Gguf

由CompendiumLabs開發
提供GGUF格式的量化與非量化嵌入模型,專為llama.cpp設計。在CPU上運行時能大幅提升速度,GPU上對大型模型也有適度加速。
下載量 878
發布時間 : 2/17/2024

模型概述

這是一個基於BAAI/bge-large-en-v1.5模型轉換的GGUF格式嵌入模型,適用於llama.cpp框架,提供多種量化版本以優化性能和資源使用。

模型特點

GGUF格式優化
專為llama.cpp設計的格式,在CPU上運行速度顯著提升
多重量化選擇
提供從F32到Q4_K_M等多種量化級別,平衡精度與性能
CPU高效運行
在CPU上可實現高達30%的速度提升,精度損失極小

模型能力

文本嵌入
語義相似度計算
信息檢索

使用案例

信息檢索
文檔搜索
將查詢和文檔轉換為嵌入向量進行相似度匹配
提高搜索相關性和效率
語義分析
文本聚類
基於嵌入向量對相似文本進行分組
發現文本數據中的潛在模式和主題
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase