B

Bert Base Uncased Finetuned Quac

由OrfeasTsk開發
基於Transformer架構的預訓練語言模型,適用於多種NLP任務
下載量 25
發布時間 : 3/9/2022

模型概述

雙向Transformer編碼器模型,通過大規模語料預訓練獲得通用語言理解能力

模型特點

雙向上下文理解
通過MLM預訓練任務實現雙向語境編碼
遷移學習友好
可通過微調適配下游NLP任務
注意力機制
全連接自注意力層捕捉長距離依賴關係

模型能力

文本特徵提取
語義相似度計算
文本分類
問答系統
命名實體識別

使用案例

文本分析
情感分析
對用戶評論進行正面/負面情感分類
典型準確率>90%(推斷值)
信息抽取
實體識別
從文本中提取人名/地名/組織名等實體
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase