T5 Base Squad Qag
T5-baseをファインチューニングした英語の質問応答ペア生成モデルで、テキスト段落から質問と回答のペアを生成します。
質問応答システム
Transformers 英語

T
lmqg
267
2
Albert Base V2 Finetuned Squad Seed 9001
Apache-2.0
SQuAD 2.0質問応答データセットでALBERTベースモデルをファインチューニングした質問応答モデル
質問応答システム
Transformers

A
zates
13
0
Electra Contrastdata Squad
Apache-2.0
このモデルはSQuADデータセットを使用してELECTRA-small判別器をファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

E
mlxen
19
0
Albert Base V2 Finetuned Squad Seed 1024
Apache-2.0
SQuAD 2.0質問応答データセットでファインチューニングされたALBERTベースモデル
質問応答システム
Transformers

A
htermotto
13
0
Bert Base Uncased Squad V2.0 Finetuned
Apache-2.0
このモデルはbert-base-uncasedをsquad_v2データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

B
kamalkraj
84
0
Albert Xxl V2 Finetuned Squad
Apache-2.0
SQuADデータセットでファインチューニングされたALBERT-xxlarge-v2モデルに基づく質問応答モデル
質問応答システム
Transformers

A
anas-awadalla
15
1
Roberta Base Finetuned Squad 2
MIT
SQuADデータセットでファインチューニングされたRoBERTa-baseモデルに基づく質問応答モデル
質問応答システム
Transformers

R
huxxx657
15
0
Mobilebert Uncased Squad V2
MIT
MobileBERTアーキテクチャに基づく質問応答モデルで、SQuAD v2データセット向けにファインチューニングされています
質問応答システム
Transformers

M
vumichien
32
0
T5 Small Squad Qg
t5-smallをファインチューニングした英語の質問生成モデルで、与えられたテキストと回答から関連する質問を生成します。
質問応答システム
Transformers 英語

T
lmqg
308
0
T5 Qg Squad1 En
MIT
T5-smallに基づく質問生成モデルで、与えられたテキストから関連する質問を生成するために使用されます。
質問応答システム 複数言語対応
T
ThomasNLG
528
1
T5 Base Finetuned For Question Generation
これはT5-Baseアーキテクチャを基に微調整された質問生成モデルで、与えられた答えと文脈から関連する質問を生成するために特化しています。
質問応答システム
Transformers 英語

T
ZhangCheng
251
14
Albert Squad V2
Apache-2.0
ALBERTアーキテクチャに基づく質問応答システムモデルで、SQuAD v2データセットで訓練され、質問応答タスクを処理するために使用されます。
質問応答システム
Transformers 英語

A
abhilash1910
22
2
T5 Large Squad Qg
T5-Largeを微調整した質問生成モデルで、SQuADデータセットから質問を生成するために設計されています。
質問応答システム
Transformers 英語

T
lmqg
540
4
Roberta Base Squad V1
MIT
このモデルはRoBERTaアーキテクチャに基づき、SQuAD1.1データセットでファインチューニングされた質問応答システムで、与えられたコンテキストから質問の答えを抽出することができます。
質問応答システム 英語
R
csarron
95
0
Bert Finetuned Squad
SQuADデータセットでBERTアーキテクチャをファインチューニングした質問応答モデル
質問応答システム
Transformers

B
huggingface-course
399
8
Roberta Base Bne Squad 2.0 Es
RoBERTaアーキテクチャに基づくスペイン語Q&Aモデルで、squad_esデータセットでファインチューニングされており、スペイン語読解タスクに適しています
質問応答システム
Transformers スペイン語

R
jamarju
20
0
Bert Base Uncased Squad V1
MIT
BERTベースのuncasedモデルをSQuAD1.1データセットでファインチューニングした質問応答システムモデル
質問応答システム 英語
B
csarron
1,893
13
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98