T

Tapas Base

googleによって開発
BERTアーキテクチャに基づく表理解モデルで、自己教師付き方式でウィキペディアの表データで事前学習され、表形式の質問応答と陳述検証タスクをサポートします。
ダウンロード数 2,457
リリース時間 : 3/2/2022

モデル概要

TAPASはBERTに基づくTransformerモデルで、表データと関連テキストを処理するために特別に設計されています。マスク言語モデリングと中間事前学習の2つの段階を通じて、モデルは表とテキストの双方向表現を学習し、表形式の質問応答や陳述検証などの下流タスクに適しています。

モデル特徴

二段階事前学習
マスク言語モデリング(MLM)と中間事前学習を組み合わせて、表の数値推論能力を強化します。
位置埋め込みサポート
相対位置(デフォルト)と絶対位置(revision='no_reset')の2種類の埋め込み方式を提供します。
表の扁平化処理
表構造をシーケンスに扁平化し、コンテキストテキストと組み合わせて処理します。

モデル能力

表データ理解
表形式の質問応答
陳述検証
表 - テキストの統合表現学習

使用事例

スマートな質問応答
表データの質問応答
表の内容に基づいてユーザーが提出した質問に回答します。
表データの推論が必要な質問に正確に回答できます。
情報検証
表の陳述検証
テキストの陳述が表データによって支持されているかどうかを検証します。
陳述と表データの一致性を判断できます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase