T

Testmodel

由sramasamy8開發
BERT是基於大規模英文語料通過自監督方式預訓練的transformers模型,採用掩碼語言建模和下一句預測目標進行訓練
下載量 21
發布時間 : 3/2/2022

模型概述

該模型採用雙向Transformer架構,通過預訓練學習英語語言的內在表徵,適用於需要理解完整句子語義的下游任務微調

模型特點

雙向上下文理解
通過MLM目標實現雙向語境捕捉,優於傳統單向語言模型
多任務預訓練
同時學習詞彙級(MLM)和句子級(NSP)表徵
不區分大小寫
統一處理大小寫變體,降低詞彙表複雜度

模型能力

文本特徵提取
句子關係判斷
遮蔽詞預測

使用案例

文本理解
情感分析
對評論文本進行正面/負面情感分類
在SST-2數據集達93.5準確率
問答系統
基於段落內容回答相關問題
語義匹配
複述檢測
判斷兩個句子是否表達相同含義
在MRPC數據集達88.9準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase