# 読解タスク

My Awesome Qa Model
Apache-2.0
bert-base-multilingual-casedを基にSQuADデータセットでファインチューニングしたQAモデル
質問応答システム Transformers
M
vnktrmnb
14
0
Indobert Qa Finetuned Small Squad Indonesian Rizal
MIT
このモデルはindobert-base-uncasedをインドネシア語small-squadデータセットでファインチューニングしたQAモデルです
質問応答システム Transformers
I
mrizalf7
51
1
Slovakbert Skquad
MIT
このモデルはSlovakBERTをスロバキア語QAデータセットskquadでファインチューニングしたQAモデルです
質問応答システム Transformers その他
S
TUKE-DeutscheTelekom
17
3
Bert Finetuned Squad
Apache-2.0
bert-base-casedをファインチューニングした質問応答モデルで、SQuADデータセットで最適化されています
質問応答システム Transformers
B
dpkmnit
13
0
Banglabert Finetuned Squad
このモデルはベンガル語SQuADデータセットでBanglaBERTをファインチューニングしたバージョンで、QAタスク用です
質問応答システム Transformers
B
Naimul
15
0
Rubert Large Squad
MIT
sberbank-ai/ruBert-baseで訓練されたロシア語Q&Aモデル、ロシア語読解タスクに適応
質問応答システム Transformers
R
Den4ikAI
26
0
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
このモデルはdistilbert-base-cased-distilled-squadをファインチューニングしたバージョンで、質問応答タスクに適しています
質問応答システム Transformers
D
ms12345
14
0
Bert Large Uncased Squadv1.1 Sparse 80 1x4 Block Pruneofa
Apache-2.0
これは、事前学習済みの80% 1x4ブロックスパースPrune OFA BERT-Largeモデルを知識蒸留でファインチューニングしたモデルで、SQuADv1.1質問応答タスクで優れた性能を発揮します。
質問応答システム Transformers 英語
B
Intel
15
1
Squad En Bert Base
BERT-baseベースの英語抽出型質問応答モデル、SQuAD 2.0データセット向けに訓練、大文字小文字を区別
質問応答システム Transformers
S
zhufy
16
0
Bert Finetuned Squad2
Apache-2.0
bert-base-casedモデルをファインチューニングした質問応答モデルで、SQuAD2.0形式の質問応答タスクに適しています
質問応答システム Transformers
B
augustoortiz
14
0
Albert Bahasa Uncased Squad
IndoBenchmarkを基に、翻訳版SQuADデータセットで微調整されたIndoBERT-Liteモデルで、インドネシア語の質問応答タスクに適しています。
質問応答システム Transformers その他
A
Wikidepia
40
0
Albert Squad V2
Apache-2.0
ALBERTアーキテクチャに基づく質問応答システムモデルで、SQuAD v2データセットで訓練され、質問応答タスクを処理するために使用されます。
質問応答システム Transformers 英語
A
abhilash1910
22
2
Bert Base Turkish Squad
トルコ語BERTモデルをファインチューニングした質問応答システムで、トルコ語QAタスクに最適化されています
質問応答システム その他
B
savasy
793
18
Mbert Bengali Tydiqa Qa
MIT
mBERTを微調整したベンガル語質問応答モデルで、tydiqaデータセットを使用して訓練されました。
質問応答システム Transformers その他
M
sagorsarker
34
1
Roberta Base Bne Squad 2.0 Es
RoBERTaアーキテクチャに基づくスペイン語Q&Aモデルで、squad_esデータセットでファインチューニングされており、スペイン語読解タスクに適しています
質問応答システム Transformers スペイン語
R
jamarju
20
0
Distilbert Onnx
Apache-2.0
これはDistilBERT-base-casedモデルをベースに、知識蒸留技術を用いてSQuAD v1.1データセットでファインチューニングされた質問応答モデルです。
質問応答システム Transformers 英語
D
philschmid
8,650
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase