E5 Small
E
E5 Small
intfloatによって開発
E5-smallは小型のセンテンストランスフォーマーモデルで、文類似度とテキスト埋め込みタスクに特化しており、複数の分類・検索タスクで良好な性能を発揮します。
ダウンロード数 16.96k
リリース時間 : 12/7/2022
モデル概要
このモデルは主に文レベルの埋め込み表現を生成するために使用され、テキスト類似度計算、情報検索、分類タスクに適しています。
モデル特徴
マルチタスク性能
分類、クラスタリング、検索など様々なNLPタスクでバランスの取れた性能を発揮
効率的な埋め込み
高品質な文レベルの埋め込み表現を生成
幅広い適用性
類似度計算や情報検索など、様々なテキスト処理タスクをサポート
モデル能力
文埋め込み生成
テキスト類似度計算
テキスト分類
テキストクラスタリング
情報検索
リランキングタスク
使用事例
電子商取引
製品レビュー感情分析
Amazon製品レビューの感情極性を分析
AmazonPolarityデータセットで87.53%の精度を達成
反事実的レビュー検出
Amazonプラットフォーム上の反事実的レビューを識別
AmazonCounterfactualデータセットで76.22%の精度を達成
カスタマーサービス
銀行相談分類
銀行顧客の相談を自動分類
Banking77データセットで81.87%の精度を達成
学術研究
学術論文クラスタリング
arXivとbiorxiv論文を主題別にクラスタリング
arXivクラスタリングタスクで44.14 V-measureを達成
🚀 e5-small
e5-smallは、Sentence Transformersをベースに構築されたモデルで、文の類似度計算や分類、検索、クラスタリング、再ランキングなどのタスクに対応しています。MTEBベンチマークでの評価結果が提供されており、その性能を確認することができます。
📚 ドキュメント
モデルのタグ
- mteb
- Sentence Transformers
- sentence-similarity
- sentence-transformers
評価結果
タスクタイプ | データセット名 | 指標 | 値 |
---|---|---|---|
Classification | MTEB AmazonCounterfactualClassification (en) | accuracy | 76.22388059701493 |
Classification | MTEB AmazonCounterfactualClassification (en) | ap | 40.27466219523129 |
Classification | MTEB AmazonCounterfactualClassification (en) | f1 | 70.60533006025108 |
Classification | MTEB AmazonPolarityClassification | accuracy | 87.525775 |
Classification | MTEB AmazonPolarityClassification | ap | 83.51063993897611 |
Classification | MTEB AmazonPolarityClassification | f1 | 87.49342736805572 |
Classification | MTEB AmazonReviewsClassification (en) | accuracy | 42.611999999999995 |
Classification | MTEB AmazonReviewsClassification (en) | f1 | 42.05088045932892 |
Retrieval | MTEB ArguAna | map_at_1 | 23.826 |
Retrieval | MTEB ArguAna | map_at_10 | 38.269 |
Retrieval | MTEB ArguAna | map_at_100 | 39.322 |
Retrieval | MTEB ArguAna | map_at_1000 | 39.344 |
Retrieval | MTEB ArguAna | map_at_3 | 33.428000000000004 |
Retrieval | MTEB ArguAna | map_at_5 | 36.063 |
Retrieval | MTEB ArguAna | mrr_at_1 | 24.253 |
Retrieval | MTEB ArguAna | mrr_at_10 | 38.425 |
Retrieval | MTEB ArguAna | mrr_at_100 | 39.478 |
Retrieval | MTEB ArguAna | mrr_at_1000 | 39.5 |
Retrieval | MTEB ArguAna | mrr_at_3 | 33.606 |
Retrieval | MTEB ArguAna | mrr_at_5 | 36.195 |
Retrieval | MTEB ArguAna | ndcg_at_1 | 23.826 |
Retrieval | MTEB ArguAna | ndcg_at_10 | 46.693 |
Retrieval | MTEB ArguAna | ndcg_at_100 | 51.469 |
Retrieval | MTEB ArguAna | ndcg_at_1000 | 52.002 |
Retrieval | MTEB ArguAna | ndcg_at_3 | 36.603 |
Retrieval | MTEB ArguAna | ndcg_at_5 | 41.365 |
Retrieval | MTEB ArguAna | precision_at_1 | 23.826 |
Retrieval | MTEB ArguAna | precision_at_10 | 7.383000000000001 |
Retrieval | MTEB ArguAna | precision_at_100 | 0.9530000000000001 |
Retrieval | MTEB ArguAna | precision_at_1000 | 0.099 |
Retrieval | MTEB ArguAna | precision_at_3 | 15.268 |
Retrieval | MTEB ArguAna | precision_at_5 | 11.479000000000001 |
Retrieval | MTEB ArguAna | recall_at_1 | 23.826 |
Retrieval | MTEB ArguAna | recall_at_10 | 73.82600000000001 |
Retrieval | MTEB ArguAna | recall_at_100 | 95.306 |
Retrieval | MTEB ArguAna | recall_at_1000 | 99.431 |
Retrieval | MTEB ArguAna | recall_at_3 | 45.804 |
Retrieval | MTEB ArguAna | recall_at_5 | 57.397 |
Clustering | MTEB ArxivClusteringP2P | v_measure | 44.13995374767436 |
Clustering | MTEB ArxivClusteringS2S | v_measure | 37.13950072624313 |
Reranking | MTEB AskUbuntuDupQuestions | map | 59.35843292105327 |
Reranking | MTEB AskUbuntuDupQuestions | mrr | 73.72312359846987 |
STS | MTEB BIOSSES | cos_sim_pearson | 84.55140418324174 |
STS | MTEB BIOSSES | cos_sim_spearman | 84.21637675860022 |
STS | MTEB BIOSSES | euclidean_pearson | 81.26069614610006 |
STS | MTEB BIOSSES | euclidean_spearman | 83.25069210421785 |
STS | MTEB BIOSSES | manhattan_pearson | 80.17441422581014 |
STS | MTEB BIOSSES | manhattan_spearman | 81.87596198487877 |
Classification | MTEB Banking77Classification | accuracy | 81.87337662337661 |
Classification | MTEB Banking77Classification | f1 | 81.76647866926402 |
Clustering | MTEB BiorxivClusteringP2P | v_measure | 35.80600542614507 |
Clustering | MTEB BiorxivClusteringS2S | v_measure | 31.86321613256603 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_1 | 32.054 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_10 | 40.699999999999996 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_100 | 41.818 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_1000 | 41.959999999999994 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_3 | 37.742 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_5 | 39.427 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_1 | 38.769999999999996 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_10 | 46.150000000000006 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_100 | 46.865 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_1000 | 46.925 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_3 | 43.705 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_5 | 45.214999999999996 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_1 | 38.769999999999996 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_10 | 45.778 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_100 | 50.38 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_1000 | 52.922999999999995 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_3 | 41.597 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_5 | 43.631 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_1 | 38.769999999999996 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_10 | 8.269 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_100 | 1.278 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_1000 | 0.178 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_3 | 19.266 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_5 | 13.705 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_1 | 32.054 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_10 | 54.947 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_100 | 74.79599999999999 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_1000 | 91.40899999999999 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_3 | 42.431000000000004 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_5 | 48.519 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_1 | 29.035 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_10 | 38.007000000000005 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_100 | 39.125 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_1000 | 39.251999999999995 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_3 | 35.77 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_5 | 37.057 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_1 | 36.497 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_10 | 44.077 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_100 | 44.743 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_1000 | 44.79 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_3 | 42.123 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_5 | 43.308 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_1 | 36.497 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_10 | 42.986000000000004 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_100 | 47.323 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_1000 | 49.624 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_3 | 39.805 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_5 | 41.286 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_1 | 36.497 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_10 | 7.8340000000000005 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_100 | 1.269 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_1000 | 0.178 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_3 | 19.023 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_5 | 13.248 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_1 | 29.035 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_10 | 51.06 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_100 | 69.64099999999999 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_1000 | 84.49 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_3 | 41.333999999999996 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_5 | 45.663 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_1 | 37.239 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_10 | 47.873 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_100 | 48.842999999999996 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_1000 | 48.913000000000004 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_3 | 45.050000000000004 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_5 | 46.498 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_1 | 42.508 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_10 | 51.44 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_100 | 52.087 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_1000 | 52.129999999999995 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_3 | 49.164 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_5 | 50.343 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_1 | 42.508 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_10 | 53.31399999999999 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_100 | 57.245000000000005 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_1000 | 58.794000000000004 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_3 | 48.295 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_5 | 50.415 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_1 | 42.508 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_10 | 8.458 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_100 | 1.133 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_1000 | 0.132 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_3 | 21.191 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_5 | 14.307 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_1 | 37.239 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_10 | 65.99000000000001 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_100 | 82.99499999999999 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_1000 | 94.128 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_3 | 52.382 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_5 | 57.648999999999994 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_1 | 23.039 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_10 | 29.694 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_100 | 30.587999999999997 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_1000 | 30.692999999999998 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_3 | 27.708 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_5 | 28.774 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_1 | 24.633 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_10 | 31.478 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_100 | 32.299 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_1000 | 32.381 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_3 | 29.435 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_5 | 30.446 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_1 | 24.633 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_10 | 33.697 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_100 | 38.080000000000005 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_1000 | 40.812 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_3 | 29.654000000000003 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_5 | 31.474000000000004 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_1 | 24.633 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_10 | 5.0729999999999995 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_100 | 0.753 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_1000 | 0.10300000000000001 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_3 | 12.279 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_5 | 8.452 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_1 | 23.039 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_10 | 44.275999999999996 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_100 | 64.4 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_1000 | 85.135 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_3 | 33.394 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_5 | 37.687 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_1 | 13.594999999999999 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_10 | 19.933999999999997 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_100 | 20.966 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_1000 | 21.087 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_3 | 17.749000000000002 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_5 | 19.156000000000002 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_1 | 17.662 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_10 | 24.407 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_100 | 25.385 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_1000 | 25.465 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_3 | 22.056 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_5 | 23.630000000000003 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_1 | 17.662 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_10 | 24.391 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_100 | 29.681 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_1000 | 32.923 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_3 | 20.271 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_5 | 22.621 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_1 | 17.662 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_10 | 4.44 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_100 | 0.8200000000000001 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_1000 | 0.125 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_3 | 9.577 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_5 | 7.313 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_1 | 13.594999999999999 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_10 | 33.976 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_100 | 57.43000000000001 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_1000 | 80.958 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_3 | 22.897000000000002 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_5 | 28.714000000000002 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_1 | 26.683 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_10 | 35.068 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_100 | 36.311 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_1000 | 36.436 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_3 | 32.371 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_5 | 33.761 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_1 | 32.435 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_10 | 40.721000000000004 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_100 | 41.535 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_1000 | 41.593 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_3 | 38.401999999999994 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_5 | 39.567 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_1 | 32.435 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_10 | 40.538000000000004 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_100 | 45.963 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_1000 | 48.400999999999996 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_3 | 36.048 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_5 | 37.899 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_1 | 32.435 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_10 | 7.1129999999999995 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_100 | 1.162 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_1000 | 0.156 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_3 | 16.683 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_5 | 11.684 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_1 | 26.683 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_10 | 51.517 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_100 | 74.553 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_1000 | 90.649 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_3 | 38.495000000000005 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_5 | 43.495 |
Jina Embeddings V3
Jina Embeddings V3 は100以上の言語をサポートする多言語文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

J
jinaai
3.7M
911
Ms Marco MiniLM L6 V2
Apache-2.0
MS Marcoパッセージランキングタスクで訓練されたクロスエンコーダモデル、情報検索におけるクエリ-パッセージ関連性スコアリング用
テキスト埋め込み 英語
M
cross-encoder
2.5M
86
Opensearch Neural Sparse Encoding Doc V2 Distill
Apache-2.0
蒸留技術に基づくスパース検索モデルで、OpenSearch向けに最適化されており、推論不要のドキュメントエンコーディングをサポートし、検索関連性と効率性においてV1版を上回ります
テキスト埋め込み
Transformers 英語

O
opensearch-project
1.8M
7
Sapbert From PubMedBERT Fulltext
Apache-2.0
PubMedBERTに基づく生物医学エンティティ表現モデルで、自己アライメント事前学習により意味関係の捕捉を最適化します。
テキスト埋め込み 英語
S
cambridgeltl
1.7M
49
Gte Large
MIT
GTE-Largeは強力なセンテンストランスフォーマーモデルで、文の類似度とテキスト埋め込みタスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
テキスト埋め込み 英語
G
thenlper
1.5M
278
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 は英語の文章変換モデルで、文章類似度タスクに特化しており、複数のテキスト埋め込みベンチマークで優れた性能を発揮します。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.5M
63
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base は50以上の言語をサポートする多言語文埋め込みモデルで、文類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.2M
246
Polybert
polyBERTは、完全に機械駆動の超高速ポリマー情報学を実現するための化学言語モデルです。PSMILES文字列を600次元の密なフィンガープリントにマッピングし、ポリマー化学構造を数値形式で表現します。
テキスト埋め込み
Transformers

P
kuelumbus
1.0M
5
Bert Base Turkish Cased Mean Nli Stsb Tr
Apache-2.0
トルコ語BERTベースの文埋め込みモデルで、意味的類似性タスクに最適化
テキスト埋め込み
Transformers その他

B
emrecan
1.0M
40
GIST Small Embedding V0
MIT
BAAI/bge-small-en-v1.5モデルを微調整したテキスト埋め込みモデルで、MEDIデータセットとMTEB分類タスクデータセットで訓練され、検索タスクのクエリエンコーディング能力を最適化しました。
テキスト埋め込み
Safetensors 英語
G
avsolatorio
945.68k
29
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98