D

Debertav2 Base Uncased

由mlcorelib開發
BERT是一個基於Transformer架構的預訓練語言模型,通過掩碼語言建模和下一句預測任務在英語語料上訓練。
下載量 21
發布時間 : 3/2/2022

模型概述

該模型是基於英語語料庫,通過掩碼語言建模(MLM)目標進行預訓練的Transformer模型,適用於各種自然語言處理任務。

模型特點

雙向上下文理解
通過掩碼語言建模任務,模型能夠學習單詞的雙向上下文表示
多任務預訓練
同時使用掩碼語言建模和下一句預測兩個任務進行預訓練
不區分大小寫
模型對輸入文本的大小寫不敏感,統一處理為小寫形式

模型能力

文本特徵提取
句子關係預測
掩碼詞預測
下游任務微調

使用案例

文本分類
情感分析
對文本進行正面/負面情感分類
在SST-2數據集上達到93.5準確率
問答系統
閱讀理解
基於給定文本回答問題
命名實體識別
實體提取
從文本中識別人名、地名等實體
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase