# 質問応答システムの最適化

Langcache Crossencoder V1 Ms Marco MiniLM L12 V2
Apache-2.0
Transformerアーキテクチャに基づくCrossEncoderモデルで、Quoraの質問ペアデータセットで微調整され、テキストペアのスコアを計算するために使用され、意味的類似度と意味的検索タスクに適しています。
テキスト分類 英語
L
aditeyabaral-redis
281
0
Reranker Gte Multilingual Base Msmarco Bce Ep 2
sentence-transformersライブラリを基に、msmarcoデータセットで訓練されたクロスエンコーダモデルで、テキストの再ランキングと意味検索に使用されます。
テキスト埋め込み 複数言語対応
R
skfrost19
28
0
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
これはModernBERT-baseから微調整されたクロスエンコーダモデルで、テキストペアのスコアを計算するために使用され、テキストの再ランキングと意味検索タスクに適しています。
テキスト埋め込み 英語
R
tomaarsen
89
4
Bloomz 560m Reranking
Openrail
Bloomz-560mを基に構築されたバイリンガル再ランキングモデルで、クエリとコンテキストの意味的関連性を測定し、フランス語と英語をサポート
大規模言語モデル Transformers 複数言語対応
B
cmarkea
17
1
E5 Base Mlqa Finetuned Arabic For Rag
これはsentence-transformersに基づくモデルで、文や段落を768次元の稠密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
E
OmarAlsaabi
92
5
Silver Retriever Base V1.1
シルバーリトリーバーモデルは、ポーランド語の文または段落を768次元の密なベクトル空間にエンコードし、ドキュメント検索や意味検索などのタスクに使用できます。
テキスト埋め込み Transformers その他
S
ipipan
862
9
Paraphrase Multilingual Mpnet Base V2 Embedding All
Apache-2.0
このモデルはparaphrase-multilingual-mpnet-base-v2をファインチューニングしたバージョンで、英語とドイツ語の文の類似度計算をサポートし、多言語テキスト埋め込みタスクに適しています。
テキスト埋め込み Transformers 複数言語対応
P
LLukas22
28
8
Roberta Finetuned City
deepset/roberta-base-squad2を微調整したモデル、具体的な用途は明記されていません
大規模言語モデル Transformers
R
svo2
19
0
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
これはDistilBERTベース未エンコードモデルのINT8量子化バージョンで、質問応答タスク向けに設計されており、学習後静的量子化によりモデルサイズと推論速度が最適化されています。
質問応答システム Transformers
D
Intel
1,737
4
Bert Large Uncased Finetuned Squadv1
SQuADv1データセットでファインチューニングされたBERT-largeモデルベースの質問応答モデル、二次枝刈り技術で最適化
質問応答システム Transformers 英語
B
RedHatAI
35
1
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
このモデルはdistilbert-base-cased-distilled-squadをファインチューニングしたバージョンで、質問応答タスクに適しています
質問応答システム Transformers
D
ms12345
14
0
Deberta Base Finetuned Squad1 Aqa Newsqa
MIT
SQuAD1、AQA、NewsQAデータセットで微調整されたDeBERTa-baseモデルを基にした質問応答モデル
質問応答システム Transformers
D
stevemobs
15
0
Deberta Base Combined Squad1 Aqa And Newsqa
MIT
DeBERTa-baseアーキテクチャに基づく質問応答モデルで、SQuAD1、AQA、NewsQAデータセットで共同ファインチューニングされています
質問応答システム Transformers
D
stevemobs
15
0
Distilbert Base Uncased Combined Squad Adversarial
Apache-2.0
このモデルはdistilbert-base-uncasedをSQuADの敵対的データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム Transformers
D
stevemobs
15
0
Roberta Base Use Qa Bg
MIT
これは多言語Robertaモデルで、ブルガリア語の文の埋め込みベクトルを生成するために使用できます。トレーニングのインスピレーションはSentence-BERTから得られ、教師モデルはGoogleのUSEモデルです。
テキスト埋め込み Transformers その他
R
rmihaylov
14
0
607 Project Adversarial
adversarial_qaデータセットでトレーニングされた質問応答モデルで、敵対的な質問に答えるために使用されます。
質問応答システム Transformers
6
KrishnaAgarwal16
22
0
Sentence BERTino
Apache-2.0
sentence-transformersに基づくイタリア語の文章埋め込みモデルで、テキストを768次元のベクトル空間にマッピングできます。
テキスト埋め込み Transformers その他
S
efederici
51
5
Bert Large Uncased Squadv1.1 Sparse 80 1x4 Block Pruneofa
Apache-2.0
これは、事前学習済みの80% 1x4ブロックスパースPrune OFA BERT-Largeモデルを知識蒸留でファインチューニングしたモデルで、SQuADv1.1質問応答タスクで優れた性能を発揮します。
質問応答システム Transformers 英語
B
Intel
15
1
Linkbert Large
Apache-2.0
LinkBERT-largeは、英語版ウィキペディアと書籍のコーパスを用いて事前学習された改良型BERTモデルで、ドキュメントのリンク情報を統合することで、ドキュメント間の知識理解能力を強化しています。
大規模言語モデル Transformers 英語
L
michiyasunaga
2,042
12
Dkrr Dpr Nq Retriever
FiDは知識蒸留に基づく質問応答システムモデルで、リーダーモデルの知識を検索器に蒸留することで、質問応答システムの効率を向上させます。
質問応答システム Transformers
D
castorini
38
0
Distilbert Base Squad2 Custom Dataset
Distilbert_BaseをファインチューニングしたSQuAD2.0およびカスタム質問応答データセットモデルで、効率的な質問応答タスクに特化
質問応答システム Transformers
D
superspray
17
0
Distilbert Base Uncased Squad2 With Ner Mit Restaurant With Neg With Repeat
このモデルはDistilBERTアーキテクチャに基づいており、SQuAD2とMIT Restaurantデータセットでファインチューニングされたバージョンで、質問応答と固有表現認識タスクをサポートします。
シーケンスラベリング Transformers 英語
D
andi611
19
0
Distilbert Base Uncased Squad2 With Ner With Neg With Multi With Repeat
distilbert-base-uncased-squad2をconll2003データセットでファインチューニングした質問応答と固有表現認識モデル
質問応答システム Transformers
D
andi611
20
0
Xlm Roberta Longformer Base 4096
Apache-2.0
XLM - Rを拡張した長シーケンス処理モデルで、最大4096トークンのシーケンス処理をサポートし、多言語タスクに適しています。
大規模言語モデル Transformers その他
X
markussagen
9,499
37
Bert Base Uncased Squadv1.1 Sparse 80 1x4 Block Pruneofa
Apache-2.0
このモデルは質問応答タスクに対して微調整されたBERT-Baseモデルで、80% 1x4ブロックスパース事前学習を採用し、知識蒸留技術を組み合わせています。
質問応答システム Transformers 英語
B
Intel
27
0
Distil Bigbird Fa Zwnj
ParsBigBirdはBigBirdフレームワークに基づくペルシア語のBertモデルで、最大4096トークンのテキストシーケンスの処理をサポートします。
大規模言語モデル Transformers
D
SajjadAyoubi
24
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase