D

Dense Encoder Distilbert Frozen Emb

由vocab-transformers開發
基於DistilBERT架構的密集檢索模型,在MS MARCO數據集上訓練,詞嵌入層保持凍結狀態
下載量 26
發布時間 : 4/5/2022

模型概述

該模型是DistilBERT的變體,專門針對信息檢索任務優化,採用MarginMSE損失函數訓練,適用於文檔和查詢的密集向量表示生成

模型特點

凍結詞嵌入訓練
訓練過程中保持預訓練的詞嵌入層參數不變,可能提高模型穩定性
MarginMSE優化
採用MarginMSE損失函數進行訓練,專門優化檢索任務的排序性能
輕量級架構
基於DistilBERT架構,比原始BERT模型更小更快,同時保持較好性能

模型能力

文本向量表示
語義相似度計算
信息檢索
文檔排序

使用案例

搜索引擎
網頁搜索結果排序
為搜索引擎生成查詢和文檔的密集向量表示,用於相關性排序
在TREC-DL等標準檢索評測中表現良好
問答系統
答案段落檢索
從大量文檔中快速檢索與問題相關的段落
在FiQA等金融問答數據集上表現穩定
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase