B

Bert Base Uncased Qnli

由Li開發
基於Transformer架構的預訓練語言模型,適用於多種自然語言處理任務。
下載量 95
發布時間 : 3/2/2022

模型概述

BERT(Bidirectional Encoder Representations from Transformers)是一種基於Transformer架構的預訓練語言模型,通過雙向上下文理解文本,適用於問答、文本分類等任務。

模型特點

雙向上下文理解
通過雙向Transformer編碼器捕捉文本的上下文信息。
預訓練與微調
支持在大規模語料上預訓練後,針對特定任務進行微調。
多任務支持
適用於問答、文本分類、命名實體識別等多種自然語言處理任務。

模型能力

文本分類
問答系統
自然語言推理

使用案例

自然語言處理
問答自然語言推理
判斷上下文句子是否包含問題的答案。
評估準確率91.69%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase