M

M2 Bert 80M 2k Retrieval

由togethercomputer開發
這是一個80M參數的M2-BERT預訓練檢查點,序列長度為2048,並已針對長上下文檢索任務進行微調。
下載量 538
發布時間 : 11/13/2023

模型概述

Monarch Mixer-BERT模型是一種基於GEMM的次二次方架構,專門針對長上下文檢索任務進行了優化,能夠生成高質量的嵌入向量用於信息檢索。

模型特點

長序列處理能力
支持長達2048的序列長度,適合處理長文本內容
高效檢索
針對檢索任務進行了專門優化,能生成高質量的768維嵌入向量
次二次方架構
採用Monarch Mixer架構,基於GEMM實現高效計算

模型能力

長文本嵌入生成
句子相似度計算
信息檢索

使用案例

信息檢索
文檔檢索
可用於構建文檔檢索系統,根據查詢內容找到相關文檔
語義搜索
支持基於語義而非關鍵詞的搜索功能
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase