2025年最高の 474 個の質問応答システムツール

Distilbert Base Cased Distilled Squad
Apache-2.0
DistilBERTはBERTの軽量蒸留バージョンで、パラメータ数が40%減少し、速度が60%向上し、95%以上の性能を維持しています。このモデルはSQuAD v1.1データセットで微調整された質問応答専用バージョンです。
質問応答システム 英語
D
distilbert
220.76k
244
Distilbert Base Uncased Distilled Squad
Apache-2.0
DistilBERTはBERTの軽量蒸留バージョンで、パラメータ数が40%減少し、速度が60%向上し、GLUEベンチマークテストでBERTの95%以上の性能を維持します。このモデルは質問応答タスク用に微調整されています。
質問応答システム Transformers 英語
D
distilbert
154.39k
115
Tapas Large Finetuned Wtq
Apache-2.0
TAPASはBERTアーキテクチャに基づく表質問応答モデルで、ウィキペディアの表データで自己監督方式により事前学習され、表内容に対する自然言語質問応答をサポート
質問応答システム Transformers 英語
T
google
124.85k
141
T5 Base Question Generator
t5-baseに基づく質問生成モデルで、答えとコンテキストを入力すると、対応する質問を出力します。
質問応答システム Transformers
T
iarfmoose
122.74k
57
Bert Base Cased Qa Evaluator
BERT-base-casedに基づく質問と回答のペアの評価モデルで、質問と回答が意味的に関連しているかどうかを判断するために使用されます。
質問応答システム
B
iarfmoose
122.54k
9
Tiny Doc Qa Vision Encoder Decoder
MIT
MITライセンスに基づく文書質問応答モデルで、主にテスト目的で使用されます。
質問応答システム Transformers
T
fxmarty
41.08k
16
Dpr Question Encoder Single Nq Base
DPR(密集パッセージ検索)はオープンドメイン質問応答研究のためのツールとモデルです。このモデルはBERTベースの質問エンコーダーで、Natural Questions(NQ)データセットでトレーニングされています。
質問応答システム Transformers 英語
D
facebook
32.90k
30
Mobilebert Uncased Squad V2
MIT
MobileBERTはBERT_LARGEの軽量化バージョンで、SQuAD2.0データセットで微調整された質問応答システムモデルです。
質問応答システム Transformers 英語
M
csarron
29.11k
7
Tapas Base Finetuned Wtq
Apache-2.0
TAPASはTransformerベースの表質問応答モデルで、ウィキペディアの表データで自己教師あり学習により事前学習され、WTQなどのデータセットでファインチューニングされています。
質問応答システム Transformers 英語
T
google
23.03k
217
Dpr Question Encoder Multiset Base
BERTベースの密集パラグラフ検索(DPR)の質問エンコーダーで、オープンドメイン質問応答研究に使用され、複数のQAデータセットで訓練されています。
質問応答システム Transformers 英語
D
facebook
17.51k
4
Roberta Base On Cuad
MIT
RoBERTa-baseモデルを法律契約の質問応答タスクで微調整したモデルで、法律契約の審査に特化して設計されています。
質問応答システム Transformers 英語
R
Rakib
14.79k
8
Mdeberta V3 Base Squad2
MIT
mDeBERTa-v3-baseをベースとした多言語質問応答モデルで、SQuAD2.0データセットでファインチューニングされています
質問応答システム Transformers 複数言語対応
M
timpal0l
14.06k
246
T5 Base Qg Hl
MIT
T5-baseアーキテクチャでトレーニングされた回答認識型問題生成モデルで、テキスト内のハイライトされた回答部分に基づいて関連する質問を生成できます。
質問応答システム Transformers
T
valhalla
11.65k
12
T5 Base E2e Qg
MIT
T5-baseをベースに訓練されたエンドツーエンドの質問生成モデルで、入力テキストから自動的に関連する質問を生成できます。
質問応答システム Transformers
T
valhalla
10.58k
29
Bert Large Finetuned Squad2
bert-large-uncasedアーキテクチャに基づき、SQuAD2.0データセットで微調整された質問応答モデル
質問応答システム 英語
B
phiyodr
9,892
0
Electra Large Discriminator Squad2 512
これはELECTRAアーキテクチャに基づく大規模識別器モデルで、質問応答タスクのためにSQuAD2.0データセットでファインチューニングされており、回答あり・なしの両方の質問シナリオを処理できます。
質問応答システム Transformers
E
ahotrod
8,925
6
Distilbert Onnx
Apache-2.0
これはDistilBERT-base-casedモデルをベースに、知識蒸留技術を用いてSQuAD v1.1データセットでファインチューニングされた質問応答モデルです。
質問応答システム Transformers 英語
D
philschmid
8,650
2
Biobert V1.1 Biomedicalquestionanswering
BioBERT-v1.1を基にファインチューニングした生物医学分野のQAモデル
質問応答システム Transformers
B
Shushant
7,145
6
Tapas Base Finetuned Tabfact
Apache-2.0
TAPASはTransformerアーキテクチャに基づくBERT類似モデルで、表データ処理に特化しており、ウィキペディア英語表データで自己教師あり方式で事前学習され、TabFactデータセットでファインチューニングされ、文が表内容に支持されるか反駁されるかを判断します。
質問応答システム Transformers 英語
T
google
6,669
1
T5 Base Finetuned Question Generation Ap
Apache-2.0
このモデルはT5-baseアーキテクチャに基づき、SQuAD v1.1データセットで微調整され、質問生成タスクに特化しています。
質問応答システム Transformers 英語
T
mrm8488
6,562
109
Bert Tiny Finetuned Squadv2
Google BERT-Tinyアーキテクチャをベースに、SQuAD2.0 Q&Aデータセットでファインチューニングされた小型Q&Aモデルで、サイズはわずか16.74MB
質問応答システム 英語
B
mrm8488
6,327
1
Qnli Electra Base
Apache-2.0
これはELECTRAアーキテクチャに基づくクロスエンコーダモデルで、質問応答タスクにおける自然言語推論(NLI)に特化しており、与えられた質問が特定の段落で回答できるかどうかを判断します。
質問応答システム Transformers 英語
Q
cross-encoder
6,172
3
Albert Base V2 Squad2
ALBERT base v2アーキテクチャに基づき、SQuAD v2データセットで微調整された質問応答モデルで、無回答の場合を含む読解タスクを得意とする。
質問応答システム Transformers
A
twmkn9
4,152
4
Tapas Temporary Repo
Apache-2.0
TAPASは表形式データの対話型質問応答タスクを処理するために事前学習とファインチューニングを行った表ベースの質問応答モデルです。
質問応答システム Transformers 英語
T
lysandre
3,443
0
Wmt22 Cometkiwi Da
COMETKiwiは機械翻訳の品質評価を行うモデルで、ソーステキストと翻訳テキストに基づいて品質スコアを出力できます。
質問応答システム 複数言語対応
W
Unbabel
3,104
38
Splinter Base Qass
Apache-2.0
Splinterは自己教師あり方式で事前学習された少数ショットQAモデルで、循環スパン選択(RSS)目標を用いて事前学習され、抽出型QAのスパン選択プロセスを模倣します。
質問応答システム Transformers 英語
S
tau
3,048
1
Bert Base Cased Squad V1.1 Portuguese
MIT
BERTimbauベーシック版を微調整したポルトガル語QAモデルで、ポルトガル語SQUAD v1.1データセットでトレーニングされ、ポルトガル語のQAタスクに適しています。
質問応答システム その他
B
pierreguillou
3,041
36
Dictalm2 It Qa Fine Tune
Apache-2.0
これはDicta - ILのdictalm2.0 - instructモデルの微調整バージョンで、ヘブライ語の質問と回答のペアを生成するために特化しています。
質問応答システム Transformers その他
D
618AI
2,900
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98
Tapex Large Finetuned Wtq
MIT
TAPEXは、ニューラルSQLエグゼキュータを学習することでテーブル事前学習を行うモデルで、BARTアーキテクチャに基づき、表推論タスク向けに設計されています。
質問応答システム Transformers 英語
T
microsoft
2,431
74
Flan T5 Base Squad2
MIT
flan-t5-baseモデルをベースに、SQuAD2.0データセットでファインチューニングされた抽出型質問応答モデルで、無回答を含む質問ペアを処理可能
質問応答システム Transformers 英語
F
sjrhuschlee
2,425
4
Tapas Tiny Finetuned Sqa
Apache-2.0
TAPASは表形式データに基づく質問応答モデルで、この小型バージョンはSQAデータセットでファインチューニングされており、対話シナリオにおける表形式質問応答タスクに適しています。
質問応答システム Transformers 英語
T
google
2,391
0
Dynamic Tinybert
Apache-2.0
Dynamic-TinyBERTは高効率な質問応答モデルで、動的シーケンス長の縮減により推論効率を向上させ、高い正確性を維持しながら最大3.3倍の高速化を実現します。
質問応答システム Transformers 英語
D
Intel
2,184
78
Distill Bert Base Spanish Wwm Cased Finetuned Spa Squad2 Es
Apache-2.0
BETOモデルを基に蒸留技術で最適化したスペイン語Q&Aモデルで、標準版より軽量で効率的
質問応答システム スペイン語
D
mrm8488
2,145
48
Biobert V1.1 Pubmed Squad V2
BioBERT v1.1 PubmedモデルをSQuAD V2データセットでファインチューニングしたQAモデルで、生物医学分野のQAタスク専用
質問応答システム
B
ktrapeznikov
2,127
3
Tapas Tiny Finetuned Wtq
Apache-2.0
TAPASは表質問応答タスク向けに最適化された小型Transformerモデルで、中間事前学習と複数データセットの連鎖的ファインチューニングにより表理解能力を実現
質問応答システム Transformers 英語
T
google
1,894
1
Bert Base Uncased Squad V1
MIT
BERTベースのuncasedモデルをSQuAD1.1データセットでファインチューニングした質問応答システムモデル
質問応答システム 英語
B
csarron
1,893
13
Tapas Base Finetuned Sqa
Apache-2.0
BERTアーキテクチャに基づく表形式質問応答モデルで、中間事前学習により数値推論能力を強化し、SQAデータセットで微調整を行った。
質問応答システム Transformers 英語
T
google
1,867
6
Question Answering Roberta Base S V2
Apache-2.0
RoBERTaベースの質問応答モデルで、与えられた質問と文脈から回答テキスト、範囲、信頼度スコアを推論するために特化しています。
質問応答システム Transformers
Q
consciousAI
1,832
10
Xlm Roberta Large Qa Multilingual Finedtuned Ru
Apache-2.0
これはXLM-RoBERTaアーキテクチャに基づく事前学習モデルで、マスク言語モデリングの目標で学習され、英語とロシア語の質問応答データセットで微調整されています。
質問応答システム Transformers 複数言語対応
X
AlexKay
1,814
48
Camembert Base Squadfr Fquad Piaf
CamemBERTをベースにしたフランス語質問応答モデルで、PIAF、FQuAD、SQuAD-FRの3つのフランス語質問応答データセットで微調整されました。
質問応答システム Transformers フランス語
C
AgentPublic
1,789
28
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
これはDistilBERTベース未エンコードモデルのINT8量子化バージョンで、質問応答タスク向けに設計されており、学習後静的量子化によりモデルサイズと推論速度が最適化されています。
質問応答システム Transformers
D
Intel
1,737
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase