M

Mxbai Embed Large V1 Gguf

ChristianAzinnによって開発
mxbai-embed-large-v1はBERT-largeアーキテクチャに基づく文埋め込みモデルで、AnglE損失関数を使用してトレーニングされ、英語テキスト埋め込みをサポートし、さまざまなニーズに対応するための複数の量子化バージョンを提供します。
ダウンロード数 646
リリース時間 : 4/7/2024

モデル概要

これは高品質の文埋め込みモデルで、BERT-largeアーキテクチャに基づき、AnglE損失関数を使用して大規模データでトレーニングされています。モデルは2ビットから32ビットまでの複数の量子化バージョンを提供し、さまざまな計算リソースシナリオに適しています。

モデル特徴

高品質文埋め込み
AnglE損失関数を使用して大規模な高品質データでトレーニングされ、BERT-large規模でSOTA性能を達成します。
複数の量子化バージョン
2ビット(Q2_K)から32ビット(FP32)までの複数の量子化バージョンを提供し、さまざまな計算リソースのニーズに対応します。
512トークンのコンテキスト長
最大512トークンのコンテキスト長をサポートし、長いテキストの処理に適しています。
広範な互換性
llama.cppやLM Studioなどの主流の推論フレームワークと互換性があります。

モデル能力

テキスト埋め込み
意味検索
情報検索
テキスト類似度計算

使用事例

検索と検索
意味検索
クエリとドキュメントを埋め込みベクトルに変換して意味類似度をマッチングします。
検索結果の関連性を向上させます。
ドキュメントクラスタリング
埋め込みベクトルに基づいてドキュメントをクラスタリング分析します。
ドキュメント間の意味関係を発見します。
レコメンドシステム
コンテンツ推薦
コンテンツ埋め込みの類似度に基づいて関連コンテンツを推薦します。
推薦の精度と多様性を向上させます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase