# 質問応答システム

Cuckoo C4 Instruct
MIT
スーパーレインボーカッコウは次語抽出(NTE)パラダイムに基づく小型情報抽出モデルで、大規模言語モデルの予測方法を模倣することで効率的な情報抽出を実現します。
質問応答システム Transformers
C
KomeijiForce
17
1
Distilbert Qasports
Apache-2.0
distilbert-base-uncased-distilled-squadをファインチューニングした質問応答モデルで、評価セットでF1スコア81.33を達成
質問応答システム Transformers
D
laurafcamargos
18
1
Protrix
ProTrixは表と文のコンテキスト計画推論に特化したモデルで、表データとテキストデータの統合推論タスクを処理します。
質問応答システム Transformers
P
pkupie
14
0
Llama Medx V3
Apache-2.0
これはHugging Face Transformersライブラリに基づく大規模言語モデルで、テキスト生成、言語翻訳、質問応答などの自然言語処理タスクに適しています。
大規模言語モデル Transformers
L
skumar9
2,598
2
Bahasa 4b Chat
その他
qwen-4bモデルをベースに、100億の高品質インドネシア語テキストで継続訓練されたインドネシア語大規模言語モデル
大規模言語モデル Transformers その他
B
Bahasalab
120
5
Text2vec Base Chinese Rag
Apache-2.0
中国語テキストの意味理解に特化したCoSENTフレームワークモデル、検索拡張生成(RAG)タスクに適応
テキスト埋め込み Transformers
T
Mike0307
46.60k
9
Mistral 7B Instruct Ukrainian
Apache-2.0
ウクライナ語に最適化されたオープンソース大規模言語モデルで、ファインチューニング、モデル融合、直接選好最適化の3段階トレーニングプロセスで構築
大規模言語モデル Transformers
M
SherlockAssistant
1,443
22
Sentence BERTino V2 Mmarco 4m
Apache-2.0
これはsentence-transformersベースのイタリア語文章埋め込みモデルで、テキストを768次元ベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み Transformers その他
S
efederici
16
2
Reastap Large Finetuned Wtq
ReasTAPは表推論に基づく事前学習モデルで、合成推論例を通じて表推論スキルを注入し、WikiTableQuestionsデータセットでファインチューニングされています
質問応答システム Transformers 英語
R
Yale-LILY
66
2
Fid T5 Large Nq
このモデルはデコーダ融合アーキテクチャに基づいており、t5-largeチェックポイントを使用し、自然問題データセットで訓練され、質問応答システムタスクに使用されます。
質問応答システム Transformers 英語
F
Intel
156
3
Minilm NaturalQuestions
MIT
microsoft/MiniLM-L12-H384-uncasedをNaturalQuestionsデータセットでファインチューニングしたモデルで、質問応答タスクに適しています
大規模言語モデル Transformers
M
remunds
31
1
Xtremedistil L6 H384 Uncased Finetuned Squad
MIT
このモデルはmicrosoft/xtremedistil-l6-h384-uncasedをSQuADデータセットでファインチューニングしたバージョンで、主に質問応答タスクに使用されます。
質問応答システム Transformers
X
tachyon-11
20
0
Electra Qa
Electra-qaはELECTRAアーキテクチャに基づく質問応答モデルで、QAタスクに適しています。
質問応答システム Transformers
E
vaibhav9
14
0
Spanbert Qa
SpanBERT/spanbert-base-casedをファインチューニングした質問応答モデルで、読解タスクに適しています
質問応答システム Transformers
S
vaibhav9
24
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム Transformers
D
pfsv
15
1
Albert Base V2 Finetuned Squad Seed 9001
Apache-2.0
SQuAD 2.0質問応答データセットでALBERTベースモデルをファインチューニングした質問応答モデル
質問応答システム Transformers
A
zates
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
distilbert-base-uncasedモデルをSQuADデータセットでファインチューニングした質問応答モデル
質問応答システム Transformers
D
LeWince
15
0
Roberta Base Squad
MIT
roberta-baseモデルをファインチューニングした質問応答モデルで、SQuAD形式のデータセットで訓練されています
質問応答システム Transformers
R
DLL888
14
0
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム Transformers
D
monakth
13
0
Albert Base V2 Finetuned Squad Seed 1024
Apache-2.0
SQuAD 2.0質問応答データセットでファインチューニングされたALBERTベースモデル
質問応答システム Transformers
A
htermotto
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの軽量質問応答モデル、SQuADデータセットでファインチューニング済み
質問応答システム Transformers
D
shizil
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuADデータセットでファインチューニングした質問応答モデルで、読解タスクに使用されます。
質問応答システム Transformers
D
BillZou
14
0
Bart Base Few Shot K 512 Finetuned Squad Seed 4
Apache-2.0
facebook/bart-baseをsquadデータセットでファインチューニングしたモデル、質問応答タスクに適しています
質問応答システム Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 128 Finetuned Squad Seed 4
Apache-2.0
BART-baseアーキテクチャに基づき、SQuADデータセットでファインチューニングされた質問応答モデルで、読解タスクに適しています。
質問応答システム Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 64 Finetuned Squad Seed 2
Apache-2.0
facebook/bart-baseをSQuADデータセットでファインチューニングした質問応答モデル
質問応答システム Transformers
B
anas-awadalla
13
0
Deberta V3 Xsmall Squad2
Apache-2.0
DeBERTa-v3-xsmallアーキテクチャに基づく質問応答システムモデルで、SQuAD2.0データセットに特化してファインチューニングされています
質問応答システム Transformers
D
nlpconnect
21
0
Bert Base Uncased Finetuned Squad
Apache-2.0
これはSQuAD質問応答データセットでファインチューニングされたBERTモデルで、質問応答タスクに使用されます。
質問応答システム Transformers
B
harveyagraphcore
15
0
Mobilebert Uncased Finetuned Squadv1
SQuADv1質問応答データセットでファインチューニングされたMobileBERTモデルベースのバージョン、質問応答タスク向けに最適化
質問応答システム Transformers 英語
M
RedHatAI
41
1
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム Transformers
D
shila
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuAD v2データセットでファインチューニング済み、質問応答タスクに適しています
質問応答システム Transformers
D
MMVos
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
distilbert-base-uncasedモデルをsquad_v2データセットでファインチューニングした質問応答モデル
質問応答システム Transformers
D
haddadalwi
17
0
Bert Base Uncased Finetuned Triviaqa
Apache-2.0
bert-base-uncasedモデルをTriviaQAデータセットでファインチューニングした質問応答モデル
質問応答システム Transformers
B
FabianWillner
191
0
Roberta Base Squad2 Finetuned Squad
このモデルはdeepset/roberta-base-squad2をファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム Transformers
R
ms12345
14
0
Bert Base Uncased Finetuned Triviaqa
Apache-2.0
BERTベースモデルをTriviaQA質問応答データセットでファインチューニングし、オープンドメイン質問応答タスクに使用
質問応答システム Transformers 英語
B
mirbostani
17
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデルで、SQuADデータセットで微調整され、抽出型質問応答タスクに使用されます。
質問応答システム Transformers
D
lingchensanwen
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTベースモデルをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスク専用です。
質問応答システム Transformers
D
ashhyun
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTベースモデルをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム Transformers
D
shahma
16
0
Envit5 Base
MIT
Transformerベースの事前学習済みエンコーダ-デコーダモデルで、ベトナム語と英語向けに設計されており、要約生成、翻訳、質問応答タスクをサポートします。
大規模言語モデル その他
E
VietAI
47
1
Roberta Base Finetuned Squad
MIT
SQuAD 2.0データセットでファインチューニングされたRoBERTa-baseモデルに基づく質問応答モデルで、与えられたテキストに基づいて質問に答えるために使用されます
質問応答システム Transformers
R
janeel
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはdistilbert-base-uncasedをsquad質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム Transformers
D
sasuke
16
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase