B

Bert Base Uncased Qnli

Liによって開発
Transformerアーキテクチャに基づく事前学習言語モデルで、様々な自然言語処理タスクに適しています。
ダウンロード数 95
リリース時間 : 3/2/2022

モデル概要

BERT(Bidirectional Encoder Representations from Transformers)は、Transformerアーキテクチャに基づく事前学習言語モデルで、双方向のコンテキストを通じてテキストを理解し、質問応答やテキスト分類などのタスクに適しています。

モデル特徴

双方向コンテキスト理解
双方向のTransformerエンコーダを通じてテキストのコンテキスト情報を捕捉します。
事前学習と微調整
大規模コーパスでの事前学習後、特定のタスクに合わせて微調整することをサポートします。
多タスクサポート
質問応答、テキスト分類、固有表現認識などの様々な自然言語処理タスクに適しています。

モデル能力

テキスト分類
質問応答システム
自然言語推論

使用事例

自然言語処理
質問応答自然言語推論
コンテキスト文に質問の答えが含まれているかどうかを判断します。
評価正解率91.69%
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase