My Awesome Qa Model
Apache-2.0
bert-base-multilingual-casedを基にSQuADデータセットでファインチューニングしたQAモデル
質問応答システム
Transformers

M
vnktrmnb
14
0
Indobert SQuAD
MIT
IndoBERTをファインチューニングしたインドネシア語QAモデル、SQuAD2.0データセットで訓練
質問応答システム
Transformers

I
esakrissa
14
3
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム
Transformers

D
pfsv
15
1
Extractive Question Answering Not Evaluated
Apache-2.0
このモデルはSQuADデータセットでファインチューニングされたDistilBERTモデルで、抽出型質問応答タスクに使用され、高い正確一致率とF1スコアを有します。
質問応答システム
Transformers

E
autoevaluate
18
2
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
monakth
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの軽量質問応答モデル、SQuADデータセットでファインチューニング済み
質問応答システム
Transformers

D
shizil
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuADデータセットでファインチューニングした質問応答モデルで、読解タスクに使用されます。
質問応答システム
Transformers

D
BillZou
14
0
Bart Base Few Shot K 256 Finetuned Squad Seed 4
Apache-2.0
このモデルはfacebook/bart-baseをSQuADデータセットでファインチューニングしたバージョンで、QAタスクに適しています。
質問応答システム
Transformers

B
anas-awadalla
13
0
Banglabert Finetuned Squad
このモデルはベンガル語SQuADデータセットでBanglaBERTをファインチューニングしたバージョンで、QAタスク用です
質問応答システム
Transformers

B
Naimul
15
0
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
これはDistilBERTベース未エンコードモデルのINT8量子化バージョンで、質問応答タスク向けに設計されており、学習後静的量子化によりモデルサイズと推論速度が最適化されています。
質問応答システム
Transformers

D
Intel
1,737
4
Bert Large Uncased Finetuned Squadv1
SQuADv1データセットでファインチューニングされたBERT-largeモデルベースの質問応答モデル、二次枝刈り技術で最適化
質問応答システム
Transformers 英語

B
RedHatAI
35
1
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
shila
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuAD v2データセットでファインチューニング済み、質問応答タスクに適しています
質問応答システム
Transformers

D
MMVos
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
distilbert-base-uncasedモデルをsquad_v2データセットでファインチューニングした質問応答モデル
質問応答システム
Transformers

D
haddadalwi
17
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTベースモデルをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスク専用です。
質問応答システム
Transformers

D
ashhyun
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTベースモデルをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム
Transformers

D
shahma
16
0
Roberta Base Finetuned Squad
MIT
SQuAD 2.0データセットでファインチューニングされたRoBERTa-baseモデルに基づく質問応答モデルで、与えられたテキストに基づいて質問に答えるために使用されます
質問応答システム
Transformers

R
janeel
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはdistilbert-base-uncasedをsquad質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

D
sasuke
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

D
anu24
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
SQuADデータセットでファインチューニングされたDistilBERTモデルに基づく質問応答モデル
質問応答システム
Transformers

D
shaojie
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTベースモデルをSQuAD v2データセットでファインチューニングした質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
lorenzkuhn
15
0
Deberta Base Finetuned Aqa Squad1
MIT
このモデルはDeBERTa-baseをSQuAD質問応答データセットでファインチューニングしたバージョンで、自動質問応答タスクに使用されます
質問応答システム
Transformers

D
stevemobs
14
0
Distilbert Base Uncased Combined Squad Adversarial
Apache-2.0
このモデルはdistilbert-base-uncasedをSQuADの敵対的データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

D
stevemobs
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuADデータセットでファインチューニングされ、読解タスク用
質問応答システム
Transformers

D
ak987
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuADデータセットでファインチューニングされたDistilBERTベースの質問応答モデルで、抽出型質問応答タスクに使用されます。
質問応答システム
Transformers

D
sam999
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
SQuAD質問応答データセットでファインチューニングされたDistilBERTベースモデル
質問応答システム
Transformers

D
cosmo
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuADデータセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
laampt
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuAD v2質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム
Transformers

D
kiana
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTベースモデルをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

D
jsunster
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuAD v2データセットでファインチューニングした質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
21iridescent
19
0
Roberta Base Squad2 Finetuned Squad
このモデルはRoBERTa-baseをSQuAD 2.0データセットでファインチューニングした質問応答モデルで、読解タスクに優れています。
質問応答システム
Transformers

R
deepakvk
14
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuAD質問応答データセットでファインチューニングされたDistilBERTベースのバージョンで、質問応答タスクに使用されます。
質問応答システム
Transformers

D
aaraki
16
0
Distilbert Base Uncased Holtin Finetuned Squad
Apache-2.0
このモデルは、DistilBERTベースモデルをSQuAD 2.0質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム
Transformers

D
holtin
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデルで、SQuADデータセットでファインチューニングされ、抽出型質問応答タスクに使用されます
質問応答システム
Transformers

D
rpv
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuAD v2データセットでファインチューニング済み、読解タスク用
質問応答システム
Transformers

D
princebansal42
15
0
Albert Xlarge V2 Squad V2
ALBERT-xlarge-v2モデルをSQuAD V2質問応答データセットでファインチューニングした質問応答システム
質問応答システム
Transformers

A
ktrapeznikov
104
2
Xlnet Base Squadv2
XLNetはGoogleとカーネギーメロン大学が共同開発した事前学習言語モデルで、SQuAD 2.0質問応答データセットでファインチューニングされています
質問応答システム
Transformers

X
ggoggam
21
2
T5 Base Qa Squad V1.1 Portuguese
T5ベースのポルトガル語Q&Aモデル、SQuAD v1.1ポルトガル語データセットでファインチューニング済み、Q&Aタスクに適応
質問応答システム
Transformers

T
pierreguillou
194
25
Xlm Roberta Large Vi Qa
MIT
xlm-roberta-largeをファインチューニングしたベトナム語QAモデル、抽出型QAタスクをサポート
質問応答システム
Transformers その他

X
ancs21
28
4
Bert Base Uncased Squadv1 X1.96 F88.3 D27 Hybrid Filled Opt V1
MIT
BERT-base uncasedモデルをSQuAD v1でファインチューニングし最適化した質問応答モデル。枝刈り技術により元の重みの43%を保持し、推論速度が1.96倍向上
質問応答システム
Transformers 英語

B
madlag
20
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98