L

Llm2vec Meta Llama 3 8B Instruct Mntp

McGill-NLPによって開発
LLM2Vecはデコーダのみのアーキテクチャを持つ大規模言語モデルをテキストエンコーダに変換する簡易ソリューションで、双方向注意機構、マスクされた次単語予測、教師なしコントラスティブ学習を有効化することで実現します。
ダウンロード数 3,885
リリース時間 : 4/30/2024

モデル概要

このモデルは3段階の変換プロセスにより大規模言語モデルを強力なテキストエンコーダに変換し、テキスト埋め込み、情報検索、テキスト分類など様々なタスクをサポートします。

モデル特徴

双方向注意機構
双方向注意機構を有効化することで、デコーダのみのLLMが文脈情報をより良く理解できるようになります。
マスクされた次単語予測
マスクされた次単語予測(MNTP)技術を採用し、モデルのテキスト表現能力を強化します。
教師なしコントラスティブ学習
教師なしコントラスティブ学習により、モデルのテキストエンコーディング品質をさらに向上させます。
命令感知型エンコーディング
命令プレフィックス付きのテキストエンコーディングをサポートし、検索拡張生成などのシナリオに適しています。

モデル能力

テキスト埋め込み
情報検索
テキスト分類
テキストクラスタリング
意味的類似性計算
特徴量抽出
テキスト再ランキング

使用事例

情報検索
質問応答システム検索
命令エンコードされたクエリ文を使用して関連ドキュメント段落を検索
高関連性ドキュメント検索
テキスト分析
意味的類似性計算
異なるテキスト間の意味的類似性を計算
正確な類似性スコア
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase