B

Bert Large Uncased Whole Word Masking Squad2 With Ner Conll2003 With Neg With Repeat

andi611によって開発
BERT-largeアーキテクチャに基づくモデルで、SQuAD 2.0とCoNLL-2003データセットで微調整され、问答と命名エンティティ認識タスクをサポートします。
ダウンロード数 18
リリース時間 : 3/2/2022

モデル概要

このモデルは、squad_v2とconll2003データセットで微調整されたBERT-largeバージョンで、主に问答システムと命名エンティティ認識タスクに使用されます。

モデル特徴

マルチタスク能力
问答システムと命名エンティティ認識の2つのNLPタスクを同時にサポートします。
全単語マスキング訓練
全単語マスキング技術を用いて事前学習を行い、モデルの理解能力を向上させます。
大型モデルアーキテクチャ
BERT-largeアーキテクチャに基づいており、より強力な表現能力を持ちます。

モデル能力

问答システム
命名エンティティ認識
テキスト理解
コンテキスト分析

使用事例

情報抽出
ドキュメント问答システム
ドキュメントから質問の正確な答えを抽出します。
SQuAD 2.0データセットで良好な性能を示します。
テキスト分析
エンティティ認識
テキスト中の人名、地名、組織名などのエンティティを認識します。
CoNLL-2003データセットで良好な性能を示します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase