M

M2 Bert 80M 8k Retrieval

由togethercomputer開發
這是一個8000萬參數的M2-BERT預訓練檢查點,序列長度達8192,並針對長上下文檢索任務進行了微調。
下載量 198
發布時間 : 11/4/2023

模型概述

Monarch Mixer-BERT模型是一個基於GEMM的次二次複雜度簡易架構,專為長上下文檢索任務設計。

模型特點

長序列處理
支持長達8192的序列長度,適合處理長上下文檢索任務。
高效架構
基於GEMM的次二次複雜度簡易架構,計算效率高。
預訓練與微調
經過預訓練並針對檢索任務進行了微調,生成768維的檢索嵌入向量。

模型能力

句子相似度計算
長文本檢索
生成嵌入向量

使用案例

信息檢索
文檔檢索
用於從大量文檔中檢索相關文檔。
問答系統
用於問答系統中檢索相關答案。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase