M

Msmarco Distilbert Word2vec256k MLM 785k Emb Updated

Developed by vocab-transformers
該模型基於DistilBERT架構,詞彙表大小為256k,通過word2vec初始化,並在MS MARCO語料庫上進行了785k步的MLM訓練。
Downloads 17
Release Time : 3/2/2022

Model Overview

這是一個基於DistilBERT的預訓練語言模型,主要用於自然語言處理任務,如文本分類、問答和信息檢索等。

Model Features

大詞彙表
詞彙表大小為256k,通過word2vec初始化,能夠更好地處理多樣化的文本數據。
高效訓練
基於DistilBERT架構,模型在保持性能的同時減少了參數量,提高了訓練和推理效率。
MS MARCO語料庫訓練
模型在MS MARCO語料庫上進行了785k步的MLM訓練,適用於信息檢索相關任務。

Model Capabilities

文本分類
問答系統
信息檢索
掩碼語言建模

Use Cases

信息檢索
文檔檢索
利用模型對文檔進行編碼,實現高效的文檔檢索。
問答系統
開放域問答
結合檢索和閱讀理解模型,構建開放域問答系統。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase