N

Nomic Embed Text V2 Moe Msmarco Bpr

由BlackBeenie開發
這是一個從nomic-ai/nomic-embed-text-v2-moe微調的sentence-transformers模型,可將文本映射到768維稠密向量空間,用於語義文本相似度計算等任務。
下載量 41
發布時間 : 3/4/2025

模型概述

該模型將句子和段落映射到768維稠密向量空間,可用於語義文本相似度計算、語義搜索、複述挖掘、文本分類、聚類等任務。

模型特點

長文本處理能力
支持最大8192個token的序列長度,適合處理長文本內容。
高效語義編碼
將文本映射到768維稠密向量空間,保留豐富的語義信息。
微調優化
基於nomic-ai/nomic-embed-text-v2-moe模型進行微調,優化了語義相似度任務表現。

模型能力

語義文本相似度計算
語義搜索
複述挖掘
文本分類
文本聚類

使用案例

信息檢索
相似問題匹配
在問答系統中匹配語義相似的問題
可準確識別不同表述但語義相同的問題
內容管理
文檔去重
識別語義相似的文檔內容
有效減少重複內容存儲
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase