T

Tapas Large

googleによって開発
TAPASはTransformerアーキテクチャに基づくBERT型モデルで、表形式のデータと関連するテキストを処理するために特別に設計されています。自己教師付き学習方式で、大量の英語のウィキペディアの表と関連するテキストで事前学習されています。
ダウンロード数 211
リリース時間 : 3/2/2022

モデル概要

TAPASモデルは、マスク言語モデリングと中間事前学習を通じて、表とテキストの双方向の表現を学習し、主に表形式の質問応答や陳述検証などの下流タスクに使用されます。

モデル特徴

表とテキストの統合処理
表形式のデータと関連するテキストを同時に処理し、両者の関連表現を学習することができます。
二重の事前学習目標
マスク言語モデリングと中間事前学習を組み合わせて、表形式の数値推論能力を強化します。
位置埋め込みの柔軟性
相対位置埋め込み(デフォルト)と絶対位置埋め込みの2つのバージョンを提供し、さまざまなニーズに対応します。

モデル能力

表形式のデータ理解
テキスト - 表の関連分析
表形式の質問応答
陳述検証

使用事例

情報検索
表形式の質問応答システム
ユーザーの質問に基づいて表から答えを抽出または推論します。
効率的な表形式の質問応答アプリケーションを構築できます。
データ検証
陳述の真偽検証
テキストの陳述が表形式のデータによって支持されているかどうかを検証します。
事実検証などのシナリオに使用できます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase