Dragon Plus Query Encoder
DRAGON+ はBERTベースアーキテクチャの高密度検索モデルで、初期重みはRetroMAEに由来し、MS MARCOコーパスの拡張データでトレーニングされました。
Downloads 3,918
Release Time : 2/15/2023
Model Overview
DRAGON+ は非対称デュアルエンコーダーアーキテクチャの高密度検索モデルで、クエリとコンテキスト間の類似度を効率的に計算します。
Model Features
高密度検索
クエリとコンテキストを密なベクトルで表現し、内積計算により類似度を算出することで、検索効率を向上させます。
非対称デュアルエンコーダー
クエリとコンテキストを別々に処理する2つの独立したパラメータ化エンコーダーを使用し、検索性能を最適化します。
多様化拡張トレーニング
MS MARCOコーパスの拡張データでトレーニングされ、モデルの汎化能力を向上させます。
Model Capabilities
クエリとテキストの類似度計算
効率的な情報検索
大規模テキストデータ処理
Use Cases
情報検索
質問応答システム
ユーザークエリに最も関連する回答段落を検索するために使用されます。
MS MARCO開発セットで39.0の性能指標を達成。
ドキュメント検索
大規模ドキュメントライブラリから関連ドキュメントを迅速に検索します。
BEIRデータセットで47.4の性能指標を達成。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98