T5 Query Reformulation RL
T
T5 Query Reformulation RL
prhegdeによって開発
これは検索クエリの書き換えに特化した生成モデルで、シーケンス-to-シーケンスアーキテクチャと強化学習フレームワークを用いて、多様で関連性のあるクエリ書き換えを生成します。
ダウンロード数 366
リリース時間 : 4/20/2024
モデル概要
このモデルはシーケンス-to-シーケンスアーキテクチャを通じて再表現されたクエリを生成し、強化学習フレームワークを利用して性能をさらに向上させます。検索におけるドキュメントのリコール率を高めるために、疎な検索方法と統合することができます。
モデル特徴
強化学習による最適化
方策勾配アルゴリズムを用いて微調整し、報酬関数によりクエリ書き換えの多様性と関連性を最適化します。
多様なクエリ生成
複数の書き換えバージョンを生成でき、検索のリコール率を向上させます。
疎な検索との互換性
BM25などの従来の検索方法とシームレスに統合できます。
モデル能力
テキスト生成
クエリ書き換え
検索最適化
使用事例
情報検索
ウェブ検索クエリの書き換え
ユーザーの元のクエリをより効果的な検索式に書き換えます。
検索エンジンのドキュメントリコール率を向上させます。
電子商取引検索の最適化
商品検索のために多様なクエリバリエーションを生成します。
商品の発見率を向上させます。
対話システム
バーチャルアシスタントのクエリ理解
自然言語の質問をより検索に適した形式に書き換えます。
質問応答システムの精度を向上させます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98