Xtremedistil L6 H384 Uncased Finetuned Squad
MIT
このモデルはmicrosoft/xtremedistil-l6-h384-uncasedをSQuADデータセットでファインチューニングしたバージョンで、主に質問応答タスクに使用されます。
質問応答システム
Transformers

X
tachyon-11
20
0
Multilingual Bert Finetuned Xquad
Apache-2.0
bert-base-multilingual-casedモデルをxquadデータセットでファインチューニングした多言語QAモデル
質問応答システム
Transformers

M
ritwikm
24
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム
Transformers

D
pfsv
15
1
Camembert Base Squad Fr
MIT
camembert-baseモデルをフランス語Q&Aデータセットでファインチューニングした質問応答モデル
質問応答システム
Transformers

C
Nadav
28
0
Albert Base V2 Finetuned Squad Seed 9001
Apache-2.0
SQuAD 2.0質問応答データセットでALBERTベースモデルをファインチューニングした質問応答モデル
質問応答システム
Transformers

A
zates
13
0
Roberta Base Squad
MIT
roberta-baseモデルをファインチューニングした質問応答モデルで、SQuAD形式のデータセットで訓練されています
質問応答システム
Transformers

R
DLL888
14
0
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
monakth
13
0
Albert Base V2 Finetuned Squad Seed 1024
Apache-2.0
SQuAD 2.0質問応答データセットでファインチューニングされたALBERTベースモデル
質問応答システム
Transformers

A
htermotto
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの軽量質問応答モデル、SQuADデータセットでファインチューニング済み
質問応答システム
Transformers

D
shizil
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuADデータセットでファインチューニングした質問応答モデルで、読解タスクに使用されます。
質問応答システム
Transformers

D
BillZou
14
0
Chinese Question Answering
bert-base-chineseモデルをファインチューニングした中国語Q&Aモデルで、質問-回答ペアの処理に特化
質問応答システム
Transformers 中国語

C
NchuNLP
81
24
Bart Base Few Shot K 512 Finetuned Squad Seed 4
Apache-2.0
facebook/bart-baseをsquadデータセットでファインチューニングしたモデル、質問応答タスクに適しています
質問応答システム
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 128 Finetuned Squad Seed 4
Apache-2.0
BART-baseアーキテクチャに基づき、SQuADデータセットでファインチューニングされた質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 64 Finetuned Squad Seed 2
Apache-2.0
facebook/bart-baseをSQuADデータセットでファインチューニングした質問応答モデル
質問応答システム
Transformers

B
anas-awadalla
13
0
Rubert Large Squad 2
MIT
sberbank-ai/ruBert-baseで訓練されたロシア語Q&Aモデル、読解タスクに適応
質問応答システム
Transformers

R
Den4ikAI
271
4
Bert Base Uncased Finetuned Squad
Apache-2.0
これはSQuAD質問応答データセットでファインチューニングされたBERTモデルで、質問応答タスクに使用されます。
質問応答システム
Transformers

B
harveyagraphcore
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
shila
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuAD v2データセットでファインチューニング済み、質問応答タスクに適しています
質問応答システム
Transformers

D
MMVos
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
distilbert-base-uncasedモデルをsquad_v2データセットでファインチューニングした質問応答モデル
質問応答システム
Transformers

D
haddadalwi
17
0
Roberta Base Squad2 Finetuned Squad
このモデルはdeepset/roberta-base-squad2をファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

R
ms12345
14
0
Bert Base Uncased Finetuned Triviaqa
Apache-2.0
BERTベースモデルをTriviaQA質問応答データセットでファインチューニングし、オープンドメイン質問応答タスクに使用
質問応答システム
Transformers 英語

B
mirbostani
17
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデルで、SQuADデータセットで微調整され、抽出型質問応答タスクに使用されます。
質問応答システム
Transformers

D
lingchensanwen
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTベースモデルをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスク専用です。
質問応答システム
Transformers

D
ashhyun
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTベースモデルをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム
Transformers

D
shahma
16
0
Roberta Base Finetuned Squad
MIT
SQuAD 2.0データセットでファインチューニングされたRoBERTa-baseモデルに基づく質問応答モデルで、与えられたテキストに基づいて質問に答えるために使用されます
質問応答システム
Transformers

R
janeel
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

D
anu24
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
SQuADデータセットでファインチューニングされたDistilBERTモデルに基づく質問応答モデル
質問応答システム
Transformers

D
shaojie
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTベースモデルをSQuAD v2データセットでファインチューニングした質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
lorenzkuhn
15
0
Bert Base Uncased Squad V2.0 Finetuned
Apache-2.0
このモデルはbert-base-uncasedをsquad_v2データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

B
kamalkraj
84
0
Deberta Base Combined Squad1 Aqa Newsqa And Newsqa
MIT
このモデルはDeBERTaアーキテクチャに基づき、SQuAD1、AQA、NewsQAデータセットでファインチューニングされた質問応答モデルです。
質問応答システム
Transformers

D
stevemobs
15
0
Deberta Base Finetuned Aqa Squad1
MIT
このモデルはDeBERTa-baseをSQuAD質問応答データセットでファインチューニングしたバージョンで、自動質問応答タスクに使用されます
質問応答システム
Transformers

D
stevemobs
14
0
Bert Finetuned Squad
Apache-2.0
SQuADデータセットでBERT-base-casedモデルをファインチューニングした質問応答モデル
質問応答システム
Transformers

B
spasis
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuADデータセットでファインチューニングされ、読解タスク用
質問応答システム
Transformers

D
ak987
15
0
Albert Xxl V2 Finetuned Squad
Apache-2.0
SQuADデータセットでファインチューニングされたALBERT-xxlarge-v2モデルに基づく質問応答モデル
質問応答システム
Transformers

A
anas-awadalla
15
1
En Finetuned Squad Qa Minilmv2 32
SQuADデータセットでファインチューニングされたMiniLMv2質問応答モデル、英語の読解タスク用
質問応答システム
Transformers

E
subhasisj
18
0
Roberta Base Finetuned Squad 2
MIT
SQuADデータセットでファインチューニングされたRoBERTa-baseモデルに基づく質問応答モデル
質問応答システム
Transformers

R
huxxx657
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuADデータセットでファインチューニングされたDistilBERTベースの質問応答モデルで、抽出型質問応答タスクに使用されます。
質問応答システム
Transformers

D
sam999
15
0
Bert Base Uncased Finetuned Squad V2
Apache-2.0
このモデルは、bert-base-uncasedをSQuADデータセットでファインチューニングした質問応答モデルです
質問応答システム
Transformers

B
HomayounSadri
621
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
SQuAD質問応答データセットでファインチューニングされたDistilBERTベースモデル
質問応答システム
Transformers

D
cosmo
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuADデータセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
laampt
16
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98