N

Nomic Embed Text V2 Moe Msmarco Bpr

BlackBeenieによって開発
これはnomic-ai/nomic-embed-text-v2-moeから微調整されたsentence-transformersモデルで、テキストを768次元の密なベクトル空間にマッピングし、意味テキスト類似度計算などのタスクに使用できます。
ダウンロード数 41
リリース時間 : 3/4/2025

モデル概要

このモデルは文や段落を768次元の密なベクトル空間にマッピングし、意味テキスト類似度計算、意味検索、复述マイニング、テキスト分類、クラスタリングなどのタスクに使用できます。

モデル特徴

長テキスト処理能力
最大8192トークンのシーケンス長をサポートし、長いテキスト内容の処理に適しています。
効率的な意味エンコーディング
テキストを768次元の密なベクトル空間にマッピングし、豊富な意味情報を保持します。
微調整最適化
nomic-ai/nomic-embed-text-v2-moeモデルをベースに微調整され、意味類似度タスクの性能が最適化されています。

モデル能力

意味テキスト類似度計算
意味検索
复述マイニング
テキスト分類
テキストクラスタリング

使用事例

情報検索
類似質問のマッチング
質問応答システムで意味的に類似した質問をマッチングする
異なる表現であっても意味が同じ質問を正確に識別できます
コンテンツ管理
ドキュメントの重複排除
意味的に類似したドキュメント内容を識別する
重複するコンテンツの保存を効果的に削減できます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase