S

Structbert Large Zh

junnyuによって開発
StructBERTは言語構造を事前学習プロセスに組み込むことでBERTを拡張した新しいモデルで、2つの補助タスクを通じて単語と文の順序構造を最大限に活用します
ダウンロード数 77
リリース時間 : 5/18/2022

モデル概要

StructBERTは事前学習に言語構造を組み込むことで改良されたBERTモデルで、単語と文レベルの言語理解能力を向上させています

モデル特徴

構造認識事前学習
2つの補助タスクを通じて単語と文の順序構造を利用した事前学習
深層言語理解
単語と文レベルで言語構造をより良く捉える
大規模事前学習
BERT-largeアーキテクチャベースで3.3億のパラメータを有する

モデル能力

テキスト分類
自然言語推論
意味的類似度計算
質問応答システム

使用事例

自然言語処理
テキスト分類
ニュース分類などのタスクに使用
TNEWSデータセットで68.67%の精度を達成
自然言語推論
文間の論理的関係を判断
CMNLIデータセットで84.47%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase