Xlm R Base Uit Viquad
XLM-RoBERTa-baseアーキテクチャを微調整したベトナム語Q&Aモデルで、UIT-ViQuADデータセットで優れた性能を発揮
質問応答システム
Transformers その他

X
chieunq
25
1
Bert Finetuned Squad Legalbert
このモデルはLegal-BERTをSQuADデータセットでファインチューニングしたバージョンで、法律分野のQ&Aタスクに特化しています。
質問応答システム
Transformers

B
Jasu
16
0
Deberta V3 Xsmall Squad2
Apache-2.0
DeBERTa-v3-xsmallアーキテクチャに基づく質問応答システムモデルで、SQuAD2.0データセットに特化してファインチューニングされています
質問応答システム
Transformers

D
nlpconnect
21
0
Bert Large Uncased Finetuned Squadv1
SQuADv1データセットでファインチューニングされたBERT-largeモデルベースの質問応答モデル、二次枝刈り技術で最適化
質問応答システム
Transformers 英語

B
RedHatAI
35
1
Deberta Base Finetuned Aqa
MIT
microsoft/deberta-baseをadversarial_qaデータセットで微調整した質問応答モデル
質問応答システム
Transformers

D
stevemobs
15
0
Albert Xlarge Finetuned
ALBERTアーキテクチャのxlargeバージョンv2モデルで、SQuAD V2データセットでファインチューニングされ、質問応答タスク用に設計
質問応答システム
Transformers

A
123tarunanand
16
0
Bert Base Uncased Finetuned Newsqa
Apache-2.0
このモデルはBERT Base Uncasedアーキテクチャを基に、NewsQA質問応答データセットでファインチューニングされたQ&Aシステムモデルです。
質問応答システム
Transformers 英語

B
mirbostani
14
2
Electra Base Squad2
これはELECTRA-baseアーキテクチャに基づく英語の抽出型質問応答モデルで、SQuAD 2.0データセットで訓練されており、質問応答タスクに適しています。
質問応答システム
E
bhadresh-savani
102
0
Albert Xlarge V2 Squad V2
ALBERT-xlarge-v2モデルをSQuAD V2質問応答データセットでファインチューニングした質問応答システム
質問応答システム
Transformers

A
ktrapeznikov
104
2
Xlnet Base Squadv2
XLNetはGoogleとカーネギーメロン大学が共同開発した事前学習言語モデルで、SQuAD 2.0質問応答データセットでファインチューニングされています
質問応答システム
Transformers

X
ggoggam
21
2
Biobert V1.1 Pubmed Squad V2
BioBERT v1.1 PubmedモデルをSQuAD V2データセットでファインチューニングしたQAモデルで、生物医学分野のQAタスク専用
質問応答システム
B
ktrapeznikov
2,127
3
Spanbert Finetuned Squadv2
SpanBERTはFacebook Researchが開発した事前学習モデルで、質問応答タスク向けにSQuAD 2.0データセットでファインチューニングされています。
質問応答システム 英語
S
mrm8488
154
4
Bart Large Finetuned Squadv1
これは、问答タスクに対してSQuADv1データセットで微調整されたBART-LARGEモデルで、自然言語理解と生成タスクに適しています。
質問応答システム
B
valhalla
959
7
Mobilebert Uncased Squad V2
MIT
MobileBERTはBERT_LARGEの軽量化バージョンで、SQuAD2.0データセットで微調整された質問応答システムモデルです。
質問応答システム
Transformers 英語

M
csarron
29.11k
7
Electra Large Synqa
Apache-2.0
ELECTRA-Largeアーキテクチャに基づく2段階トレーニング質問応答モデル。最初に合成敵対データでトレーニングし、その後SQuADとAdversarialQAデータセットで微調整
質問応答システム
Transformers 英語

E
mbartolo
24
3
Roberta Base Squad V1
MIT
このモデルはRoBERTaアーキテクチャに基づき、SQuAD1.1データセットでファインチューニングされた質問応答システムで、与えられたコンテキストから質問の答えを抽出することができます。
質問応答システム 英語
R
csarron
95
0
Bart Squadv2
これは、问答タスクに対してSQuADv2データセットでファインチューニングされたbart-largeモデルで、BARTアーキテクチャに基づいており、自然言語理解と生成タスクに適しています。
質問応答システム
Transformers

B
aware-ai
96
1
Electra Base De Squad2
MIT
electra-base-german-uncasedをファインチューニングしたドイツ語QAモデルで、独自のドイツ語QAデータセット(deQuAD)でトレーニング済み
質問応答システム
Transformers ドイツ語

E
deutsche-telekom
169
13
Bert Italian Finedtuned Squadv1 It Alfa
イタリア語BERTベース版をイタリア語SQuADでファインチューニングし、Q&A下流タスクに使用
質問応答システム その他
B
mrm8488
286
14
Bert Base Spanish Wwm Cased Finetuned Spa Squad2 Es
BETOは大規模なスペイン語コーパスで訓練されたBERTモデルで、このバージョンはスペイン語Q&Aタスク向けにファインチューニングされています
質問応答システム スペイン語
B
mrm8488
1,648
12
Bert Large Cased Squad V1.1 Portuguese
MIT
BERTimbau Largeで訓練されたポルトガル語質問応答モデルで、SQuAD v1.1ポルトガル語版で微調整されており、ポルトガル語の質問応答タスクに適しています。
質問応答システム
Transformers その他

B
pierreguillou
1,199
45
Roberta Base Best Squad2
RoBERTaに基づく英語の抽出型質問応答モデルで、SQuAD 2.0データセットで訓練され、回答ありと回答なしの質問応答シナリオを処理できます。
質問応答システム
Transformers

R
PremalMatalia
30
1
Xlm Roberta Large Qa Multilingual Finedtuned Ru
Apache-2.0
これはXLM-RoBERTaアーキテクチャに基づく事前学習モデルで、マスク言語モデリングの目標で学習され、英語とロシア語の質問応答データセットで微調整されています。
質問応答システム
Transformers 複数言語対応

X
AlexKay
1,814
48
German Question Answer Electra
GELECTRA Largeアーキテクチャに基づいて微調整されたドイツ語質問応答モデルで、MLQAとXQUADのドイツ語データセットで優れた性能を発揮します。
質問応答システム
Transformers ドイツ語

G
Sahajtomar
19
7
Bart Squad2
BARTアーキテクチャに基づく抽出型質問応答モデルで、Squad 2.0データセットでトレーニングされ、F1スコアは87.4
質問応答システム
Transformers 英語

B
primer-ai
18
2
Mrc2reader
xlm-roberta-large-squad2モデルをファインチューニングした韓国語Q&Aシステムで、KorQuAD評価で優れた性能を発揮します。
質問応答システム
Transformers

M
Dongjae
22
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98