Dragon Plus Context Encoder
DRAGON+ はBERTアーキテクチャに基づく高密度検索モデルで、非対称デュアルエンコーダーアーキテクチャを採用し、テキスト検索タスクに適しています。
Downloads 4,396
Release Time : 2/15/2023
Model Overview
DRAGON+ は高密度検索モデルで、初期重みはRetroMAEに由来し、MS MARCOコーパスの拡張データでトレーニングされました。非対称デュアルエンコーダーアーキテクチャを採用し、効率的なテキスト検索のために2つの独立したパラメータ化されたエンコーダーを備えています。
Model Features
非対称デュアルエンコーダーアーキテクチャ
クエリとコンテキストのエンコードにそれぞれ独立したパラメータ化されたエンコーダーを備え、検索効率を向上させます。
高密度検索
クエリとコンテキストの埋め込みベクトルの内積を計算して類似性を評価し、効率的な検索を実現します。
RetroMAE初期化に基づく
初期重みはRetroMAEに由来し、MS MARCOコーパスの拡張データでさらにトレーニングされました。
Model Capabilities
テキスト検索
類似性計算
高密度ベクトル表現
Use Cases
情報検索
質問応答システム
ユーザーのクエリに最も関連するドキュメントや段落を検索するために使用されます。
MS MARCO開発セットで39.0のスコアを達成しました。
ドキュメント検索
大規模なドキュメントライブラリから関連するドキュメントを迅速に見つけます。
BEIR評価で47.4のスコアを達成しました。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98