N

Nomic Embed Text V2 Moe

nomic-aiによって開発
Nomic Embed v2は高性能な多言語エキスパート混合(MoE)テキスト埋め込みモデルで、約100言語をサポートし、多言語検索タスクで優れた性能を発揮します。
ダウンロード数 242.32k
リリース時間 : 2/7/2025

モデル概要

このモデルはエキスパート混合アーキテクチャを採用し、マトリョーシカ埋め込み技術を組み合わせ、柔軟な埋め込み次元選択を提供し、多言語テキスト類似度と検索タスクで最先端のレベルを達成しています。

モデル特徴

多言語エキスパート混合アーキテクチャ
8エキスパート混合アーキテクチャを採用し、効率的な推論を維持しながら多言語性能を向上
マトリョーシカ埋め込み技術
768から256次元までの柔軟な埋め込み次元選択をサポートし、ストレージコストを大幅に削減
広範な言語サポート
約100言語をサポートし、トレーニングデータは16億ペア以上
オープンソース透明性
モデル重み、トレーニングコード、トレーニングデータを完全オープンソース化

モデル能力

多言語テキスト埋め込み
文類似度計算
特徴抽出
言語間検索

使用事例

情報検索
言語間ドキュメント検索
異なる言語のドキュメント間で意味的関連性を構築し、言語間検索を実現
MIRACLベンチマークで65.80点を達成
意味分析
多言語テキスト類似度計算
異なる言語のテキスト間の意味的類似度を計算
約100言語の類似度分析をサポート
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase