# SQuAD微調整

Bart Base Few Shot K 16 Finetuned Squad Seed 2
Apache-2.0
facebook/bart-baseモデルをsquadデータセットで微調整したバージョンで、QAタスクに適しています。
質問応答システム Transformers
B
anas-awadalla
13
0
T5 Base Finetuned Question Generation Ap
Apache-2.0
このモデルはT5-baseアーキテクチャに基づき、SQuAD v1.1データセットで微調整され、質問生成タスクに特化しています。
質問応答システム Transformers 英語
T
mrm8488
6,562
109
Bert Base Uncased Squadv1 X2.32 F86.6 D15 Hybrid V1
MIT
BERT-base uncasedモデルをSQuAD v1で微調整した質問応答モデルで、nn_pruningライブラリを使って線形層の重みの66%をプルーニングし、推論速度を2.32倍に向上させました。
質問応答システム Transformers 英語
B
madlag
16
0
Bart Large Finetuned Squadv1
これは、问答タスクに対してSQuADv1データセットで微調整されたBART-LARGEモデルで、自然言語理解と生成タスクに適しています。
質問応答システム
B
valhalla
959
7
Roberta Base Finetuned Squad2
MIT
RoBERTa-baseモデルをSQuAD 2.0データセットで微調整した質問応答モデル
質問応答システム Transformers
R
mvonwyl
19
0
Longformer Base 4096 Finetuned Squadv1
MIT
LONGFORMER - BASE - 4096モデルをSQuAD v1質問応答データセットで微調整したバージョンで、長文書の質問応答タスクの処理に適しています。
質問応答システム
L
valhalla
806
22
Bert Base Multilingual Cased Finetuned Polish Squad1
多言語BERTモデルを微調整したポーランド語質問応答システムで、ポーランド語SQuAD1.1データセットで優れた性能を発揮します。
質問応答システム その他
B
henryk
86
4
Xlmroberta For VietnameseQA
MIT
xlm - roberta - baseを微調整したベトナム語質問応答モデルで、UIT - Viquad_v2データセットで訓練されました。
質問応答システム Transformers
X
hogger32
54
0
Distilbert Base Uncased Distilled Squad Finetuned Squad
Apache-2.0
このモデルは、distilbert-base-uncased-distilled-squadをsquad_v2データセットで微調整したバージョンで、質問応答タスクに適しています。
質問応答システム Transformers
D
deepakvk
24
0
Transformers Qa
Apache-2.0
このモデルは、distilbert-base-casedをSQuADデータセットで微調整した问答モデルで、Keras.ioの问答チュートリアル用に訓練されました。
質問応答システム Transformers
T
keras-io
23
4
Xlm Roberta Large Finetuned Squad V2
MIT
xlm-roberta-largeモデルをsquad_v2データセットで微調整した質問応答モデル
質問応答システム Transformers
X
sontn122
67
0
Bert Base Cased Squad V1
Apache-2.0
これはBERT-casedベースの英語抽出型質問応答モデルで、SQuAD v1データセットで訓練され、電池機器データの質問応答タスクに適しています。
質問応答システム Transformers 英語
B
batterydata
21
0
Scibert Scivocab Uncased Squad V2
BERTアーキテクチャに基づく科学分野の事前学習言語モデルで、科学文献用語集を使って学習されました。
質問応答システム
S
ktrapeznikov
20
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTに基づく问答モデルで、SQuADデータセットで微調整され、読解タスクに使用されます。
質問応答システム Transformers
D
hark99
20
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、distilbert-base-uncasedモデルをsquadデータセットで微調整したバージョンで、主に问答タスクに使用されます。
質問応答システム Transformers
D
oo
15
0
Microsoft Deberta Large Squad
このモデルは、SQuAD V1データセットを使用してmicrosoft_deberta-largeを微調整したバージョンで、主に質問応答タスクに使用されます。
質問応答システム Transformers
M
Palak
112
0
Distilbert Base Cased Distilled Squad
Apache-2.0
DistilBERTはBERTの軽量蒸留バージョンで、パラメータ数が40%減少し、速度が60%向上し、95%以上の性能を維持しています。このモデルはSQuAD v1.1データセットで微調整された質問応答専用バージョンです。
質問応答システム 英語
D
distilbert
220.76k
244
Bert Base Uncased Squadv1.1 Sparse 80 1x4 Block Pruneofa
Apache-2.0
このモデルは質問応答タスクに対して微調整されたBERT-Baseモデルで、80% 1x4ブロックスパース事前学習を採用し、知識蒸留技術を組み合わせています。
質問応答システム Transformers 英語
B
Intel
27
0
Dynamic Tinybert
Apache-2.0
Dynamic-TinyBERTは高効率な質問応答モデルで、動的シーケンス長の縮減により推論効率を向上させ、高い正確性を維持しながら最大3.3倍の高速化を実現します。
質問応答システム Transformers 英語
D
Intel
2,184
78
Indobert QA
Apache-2.0
インドネシア語質問応答モデル。翻訳版SQuAD 2.0データセットで微調整され、インドネシア語の質問応答タスクに適しています。
質問応答システム Transformers その他
I
Rifky
695
14
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase