Cotmae Base Msmarco Reranker
C
Cotmae Base Msmarco Reranker
caskcsgによって開発
CoT-MAEアーキテクチャに基づいて訓練されたMS-Marcoパッセージ再ランキングモデルで、高密度パッセージ検索性能を向上させるために使用されます
ダウンロード数 16
リリース時間 : 10/28/2022
モデル概要
このモデルは、CoT-MAE(コンテキストマスク自動エンコーダ)アーキテクチャに基づいて訓練されたパッセージ再ランキングモデルで、MS-Marcoデータセット内のパッセージ検索結果を再ランキングし、検索品質を向上させるために特別に設計されています。
モデル特徴
CoT-MAEアーキテクチャベース
コンテキストマスク自動エンコーダの事前訓練アーキテクチャを採用し、高密度パッセージ検索に最適化されています
困難なネガティブサンプルマイニング
CoT-MAE検索器を使用してMS-Marcoの困難なネガティブサンプルをマイニングし、訓練に使用します
高性能再ランキング
MS-Marcoパッセージフルランキングタスクで優れた性能を発揮し、MRR@10は0.43884を達成しました
モデル能力
文類似性計算
パッセージ再ランキング
高密度パッセージ検索
使用事例
情報検索
検索エンジン結果の再ランキング
検索エンジンが返すパッセージ結果を再ランキングして関連性を向上させます
MRR@10は0.43884、recall@200は0.956734を達成しました
質問応答システム
質問応答システムで候補となる回答パッセージを関連性に基づいてランキングします
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98