# 表形式の質問応答

Tapas Small
Apache-2.0
TAPASはTransformerベースの表形式の質問応答モデルで、自己教師付き学習方式でウィキペディアの表と関連テキストで事前学習され、表の理解と質問応答タスクをサポートします。
大規模言語モデル Transformers 英語
T
google
41
0
Tapas Medium Masklm
TAPASは、表データと関連するクエリを処理するために特別に設計された、表ベースの事前学習言語モデルです。
大規模言語モデル Transformers
T
google
14
1
Tapas Large Masklm
TAPASは表データに基づく事前学習言語モデルで、表関連の自然言語タスクを処理するために特別に設計されています。
大規模言語モデル Transformers
T
google
15
2
Tapas Large Finetuned Wikisql Supervised
Apache-2.0
TAPASはBERTに似たTransformerモデルで、表形式の質問応答タスク用に設計されています。自己教師付き方式でウィキペディアの英語表コーパスで事前学習され、WikiSQLデータセットで微調整されています。
質問応答システム Transformers 英語
T
google
80
6
Tapas Base
Apache-2.0
BERTアーキテクチャに基づく表理解モデルで、自己教師付き方式でウィキペディアの表データで事前学習され、表形式の質問応答と陳述検証タスクをサポートします。
大規模言語モデル Transformers 英語
T
google
2,457
7
Tapas Tiny Masklm
TAPASは表ベースの事前学習言語モデルで、表データに関連するタスクを処理するために特別に設計されています。
大規模言語モデル Transformers
T
google
16
0
Tapas Large Finetuned Sqa
Apache-2.0
このモデルはTAPASの大型バージョンで、順序質問応答(SQA)タスクでファインチューニングされ、表関連の質問応答シーンに適しています。
質問応答システム Transformers 英語
T
google
71
7
Tapas Small Finetuned Wtq
Apache-2.0
このモデルはTAPASの小型版で、WikiTable Questionsデータセットに特化して微調整され、表形式の質問応答タスクに使用されます。
質問応答システム Transformers 英語
T
google
406
5
Tapas Large
Apache-2.0
TAPASはTransformerアーキテクチャに基づくBERT型モデルで、表形式のデータと関連するテキストを処理するために特別に設計されています。自己教師付き学習方式で、大量の英語のウィキペディアの表と関連するテキストで事前学習されています。
大規模言語モデル Transformers 英語
T
google
211
2
Tapas Mini
Apache-2.0
TAPASはTransformerアーキテクチャに基づくBERT型のモデルで、表データと関連テキストの処理用に設計され、自己教師付き方式でウィキペディアの表データで事前学習されています。
大規模言語モデル Transformers 英語
T
google
15
0
Tapas Medium Finetuned Wikisql Supervised
Apache-2.0
TAPASはTransformerベースの表形式の質問応答モデルで、自己教師付き方式でウィキペディアの英語の表データで事前学習し、WikiSQLデータセットで教師付き微調整を行います。
質問応答システム Transformers 英語
T
google
19
0
Tapas Medium
Apache-2.0
Transformerアーキテクチャに基づく表形式の質問応答モデルで、自己教師付き方式で英語版ウィキペディアの表と関連テキストで事前学習されます。
大規模言語モデル Transformers 英語
T
google
23
0
Reasonbert TAPAS
このモデルはtapas-baseアーキテクチャに基づいており、表形式の入力に対して事前学習を最適化し、推論能力を強化しており、質問応答タスクに適しています。
大規模言語モデル Transformers
R
Anonymous
17
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase