Gte Base
G
Gte Base
thenlperによって開発
GTE-Baseは汎用的なテキスト埋め込みモデルで、文の類似度とテキスト検索タスクに特化しており、複数のベンチマークテストで良好なパフォーマンスを示しています。
ダウンロード数 317.05k
リリース時間 : 7/27/2023
モデル概要
GTE-Baseはtransformerベースの文埋め込みモデルで、主に高品質な文埋め込みを生成するために設計されており、テキスト類似度計算、情報検索、テキスト分類などのタスクに適しています。
モデル特徴
優れたマルチタスク性能
文類似度、テキスト分類、クラスタリング、検索など様々なタスクでバランスの取れた優れた性能を発揮
高品質な文埋め込み
高品質な文レベルの埋め込み表現を生成可能で、様々な下流NLPタスクに適用可能
広範なベンチマーク検証
MTEBなど複数の標準ベンチマークテストセットで包括的な評価を実施
モデル能力
文類似度計算
テキスト分類
テキストクラスタリング
情報検索
セマンティック検索
テキスト再ランキング
使用事例
電子商取引
製品レビュー分類
Amazon製品レビューの感情極性分類
AmazonPolarityデータセットで91.77%の精度を達成
反事実的レビュー検出
Amazon上の反事実的レビューを識別
AmazonCounterfactualデータセットで74.18%の精度を達成
カスタマーサービス
銀行業務意図分類
銀行顧客問い合わせの意図分類
Banking77データセットで85.07%の精度を達成
学術研究
論文クラスタリング
arXivとbiorxiv論文の主題クラスタリング
ArxivClusteringP2Pでv_measure48.60%を達成
🚀 gte - base
このモデルは、様々な自然言語処理タスクでの性能を評価しています。以下に、各タスクでの評価結果を示します。
📊 評価結果
タスクタイプ | データセット | 指標 | 値 |
---|---|---|---|
Classification | MTEB AmazonCounterfactualClassification (en) | accuracy | 74.17910447761193 |
Classification | MTEB AmazonCounterfactualClassification (en) | ap | 36.827146398068926 |
Classification | MTEB AmazonCounterfactualClassification (en) | f1 | 68.11292888046363 |
Classification | MTEB AmazonPolarityClassification | accuracy | 91.77345000000001 |
Classification | MTEB AmazonPolarityClassification | ap | 88.33530426691347 |
Classification | MTEB AmazonPolarityClassification | f1 | 91.76549906404642 |
Classification | MTEB AmazonReviewsClassification (en) | accuracy | 48.964 |
Classification | MTEB AmazonReviewsClassification (en) | f1 | 48.22995586184998 |
Retrieval | MTEB ArguAna | map_at_1 | 32.147999999999996 |
Retrieval | MTEB ArguAna | map_at_10 | 48.253 |
Retrieval | MTEB ArguAna | map_at_100 | 49.038 |
Retrieval | MTEB ArguAna | map_at_1000 | 49.042 |
Retrieval | MTEB ArguAna | map_at_3 | 43.433 |
Retrieval | MTEB ArguAna | map_at_5 | 46.182 |
Retrieval | MTEB ArguAna | mrr_at_1 | 32.717 |
Retrieval | MTEB ArguAna | mrr_at_10 | 48.467 |
Retrieval | MTEB ArguAna | mrr_at_100 | 49.252 |
Retrieval | MTEB ArguAna | mrr_at_1000 | 49.254999999999995 |
Retrieval | MTEB ArguAna | mrr_at_3 | 43.599 |
Retrieval | MTEB ArguAna | mrr_at_5 | 46.408 |
Retrieval | MTEB ArguAna | ndcg_at_1 | 32.147999999999996 |
Retrieval | MTEB ArguAna | ndcg_at_10 | 57.12199999999999 |
Retrieval | MTEB ArguAna | ndcg_at_100 | 60.316 |
Retrieval | MTEB ArguAna | ndcg_at_1000 | 60.402 |
Retrieval | MTEB ArguAna | ndcg_at_3 | 47.178 |
Retrieval | MTEB ArguAna | ndcg_at_5 | 52.146 |
Retrieval | MTEB ArguAna | precision_at_1 | 32.147999999999996 |
Retrieval | MTEB ArguAna | precision_at_10 | 8.542 |
Retrieval | MTEB ArguAna | precision_at_100 | 0.9900000000000001 |
Retrieval | MTEB ArguAna | precision_at_1000 | 0.1 |
Retrieval | MTEB ArguAna | precision_at_3 | 19.346 |
Retrieval | MTEB ArguAna | precision_at_5 | 14.026 |
Retrieval | MTEB ArguAna | recall_at_1 | 32.147999999999996 |
Retrieval | MTEB ArguAna | recall_at_10 | 85.42 |
Retrieval | MTEB ArguAna | recall_at_100 | 99.004 |
Retrieval | MTEB ArguAna | recall_at_1000 | 99.644 |
Retrieval | MTEB ArguAna | recall_at_3 | 58.037000000000006 |
Retrieval | MTEB ArguAna | recall_at_5 | 70.128 |
Clustering | MTEB ArxivClusteringP2P | v_measure | 48.59706013699614 |
Clustering | MTEB ArxivClusteringS2S | v_measure | 43.01463593002057 |
Reranking | MTEB AskUbuntuDupQuestions | map | 61.80250355752458 |
Reranking | MTEB AskUbuntuDupQuestions | mrr | 74.79455216989844 |
STS | MTEB BIOSSES | cos_sim_pearson | 89.87448576082345 |
STS | MTEB BIOSSES | cos_sim_spearman | 87.64235843637468 |
STS | MTEB BIOSSES | euclidean_pearson | 88.4901825511062 |
STS | MTEB BIOSSES | euclidean_spearman | 87.74537283182033 |
STS | MTEB BIOSSES | manhattan_pearson | 88.39040638362911 |
STS | MTEB BIOSSES | manhattan_spearman | 87.62669542888003 |
Classification | MTEB Banking77Classification | accuracy | 85.06818181818183 |
Classification | MTEB Banking77Classification | f1 | 85.02524460098233 |
Clustering | MTEB BiorxivClusteringP2P | v_measure | 38.20471092679967 |
Clustering | MTEB BiorxivClusteringS2S | v_measure | 36.58967592147641 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_1 | 32.411 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_10 | 45.162 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_100 | 46.717 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_1000 | 46.836 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_3 | 41.428 |
Retrieval | MTEB CQADupstackAndroidRetrieval | map_at_5 | 43.54 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_1 | 39.914 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_10 | 51.534 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_100 | 52.185 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_1000 | 52.22 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_3 | 49.046 |
Retrieval | MTEB CQADupstackAndroidRetrieval | mrr_at_5 | 50.548 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_1 | 39.914 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_10 | 52.235 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_100 | 57.4 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_1000 | 58.982 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_3 | 47.332 |
Retrieval | MTEB CQADupstackAndroidRetrieval | ndcg_at_5 | 49.62 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_1 | 39.914 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_10 | 10.258000000000001 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_100 | 1.6219999999999999 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_1000 | 0.20500000000000002 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_3 | 23.462 |
Retrieval | MTEB CQADupstackAndroidRetrieval | precision_at_5 | 16.71 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_1 | 32.411 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_10 | 65.408 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_100 | 87.248 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_1000 | 96.951 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_3 | 50.349999999999994 |
Retrieval | MTEB CQADupstackAndroidRetrieval | recall_at_5 | 57.431 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_1 | 31.911 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_10 | 42.608000000000004 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_100 | 43.948 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_1000 | 44.089 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_3 | 39.652 |
Retrieval | MTEB CQADupstackEnglishRetrieval | map_at_5 | 41.236 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_1 | 40.064 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_10 | 48.916 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_100 | 49.539 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_1000 | 49.583 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_3 | 46.741 |
Retrieval | MTEB CQADupstackEnglishRetrieval | mrr_at_5 | 48.037 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_1 | 40.064 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_10 | 48.442 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_100 | 52.798 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_1000 | 54.871 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_3 | 44.528 |
Retrieval | MTEB CQADupstackEnglishRetrieval | ndcg_at_5 | 46.211 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_1 | 40.064 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_10 | 9.178 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_100 | 1.452 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_1000 | 0.193 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_3 | 21.614 |
Retrieval | MTEB CQADupstackEnglishRetrieval | precision_at_5 | 15.185 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_1 | 31.911 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_10 | 58.155 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_100 | 76.46300000000001 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_1000 | 89.622 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_3 | 46.195 |
Retrieval | MTEB CQADupstackEnglishRetrieval | recall_at_5 | 51.288999999999994 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_1 | 40.597 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_10 | 54.290000000000006 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_100 | 55.340999999999994 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_1000 | 55.388999999999996 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_3 | 50.931000000000004 |
Retrieval | MTEB CQADupstackGamingRetrieval | map_at_5 | 52.839999999999996 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_1 | 46.646 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_10 | 57.524 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_100 | 58.225 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_1000 | 58.245999999999995 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_3 | 55.235 |
Retrieval | MTEB CQADupstackGamingRetrieval | mrr_at_5 | 56.589 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_1 | 46.646 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_10 | 60.324999999999996 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_100 | 64.30900000000001 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_1000 | 65.19 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_3 | 54.983000000000004 |
Retrieval | MTEB CQADupstackGamingRetrieval | ndcg_at_5 | 57.621 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_1 | 46.646 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_10 | 9.774 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_100 | 1.265 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_1000 | 0.13799999999999998 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_3 | 24.911 |
Retrieval | MTEB CQADupstackGamingRetrieval | precision_at_5 | 16.977999999999998 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_1 | 40.597 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_10 | 74.773 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_100 | 91.61200000000001 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_1000 | 97.726 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_3 | 60.458 |
Retrieval | MTEB CQADupstackGamingRetrieval | recall_at_5 | 66.956 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_1 | 27.122 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_10 | 36.711 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_100 | 37.775 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_1000 | 37.842999999999996 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_3 | 33.693 |
Retrieval | MTEB CQADupstackGisRetrieval | map_at_5 | 35.607 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_1 | 29.153000000000002 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_10 | 38.873999999999995 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_100 | 39.739000000000004 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_1000 | 39.794000000000004 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_3 | 36.102000000000004 |
Retrieval | MTEB CQADupstackGisRetrieval | mrr_at_5 | 37.876 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_1 | 29.153000000000002 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_10 | 42.048 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_100 | 47.144999999999996 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_1000 | 48.901 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_3 | 36.402 |
Retrieval | MTEB CQADupstackGisRetrieval | ndcg_at_5 | 39.562999999999995 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_1 | 29.153000000000002 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_10 | 6.4750000000000005 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_100 | 0.951 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_1000 | 0.11299999999999999 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_3 | 15.479999999999999 |
Retrieval | MTEB CQADupstackGisRetrieval | precision_at_5 | 11.028 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_1 | 27.122 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_10 | 56.279999999999994 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_100 | 79.597 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_1000 | 92.804 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_3 | 41.437000000000005 |
Retrieval | MTEB CQADupstackGisRetrieval | recall_at_5 | 49.019 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_1 | 17.757 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_10 | 26.739 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_100 | 28.015 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_1000 | 28.127999999999997 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_3 | 23.986 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | map_at_5 | 25.514 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_1 | 22.015 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_10 | 31.325999999999997 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_100 | 32.368 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_1000 | 32.426 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_3 | 28.897000000000002 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | mrr_at_5 | 30.147000000000002 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_1 | 22.015 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_10 | 32.225 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_100 | 38.405 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_1000 | 40.932 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_3 | 27.403 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | ndcg_at_5 | 29.587000000000003 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_1 | 22.015 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_10 | 5.9830000000000005 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_100 | 1.051 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_1000 | 0.13899999999999998 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_3 | 13.391 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | precision_at_5 | 9.602 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_1 | 17.757 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_10 | 44.467 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_100 | 71.53699999999999 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_1000 | 89.281 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_3 | 31.095 |
Retrieval | MTEB CQADupstackMathematicaRetrieval | recall_at_5 | 36.818 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_1 | 30.354 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_10 | 42.134 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_100 | 43.429 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_1000 | 43.532 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_3 | 38.491 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | map_at_5 | 40.736 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_1 | 37.247 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_10 | 47.775 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_100 | 48.522999999999996 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_1000 | 48.567 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_3 | 45.059 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | mrr_at_5 | 46.811 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_1 | 37.247 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_10 | 48.609 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_100 | 53.782 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_1000 | 55.666000000000004 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_3 | 42.866 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | ndcg_at_5 | 46.001 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_1 | 37.247 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_10 | 8.892999999999999 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_100 | 1.341 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_1000 | 0.168 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_3 | 20.5 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | precision_at_5 | 14.976 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_1 | 30.354 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_10 | 62.273 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_100 | 83.65599999999999 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_1000 | 95.82000000000001 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_3 | 46.464 |
Retrieval | MTEB CQADupstackPhysicsRetrieval | recall_at_5 | 54.225 |
Retrieval | MTEB CQADupstackProgrammersRetrieval |
Jina Embeddings V3
Jina Embeddings V3 は100以上の言語をサポートする多言語文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

J
jinaai
3.7M
911
Ms Marco MiniLM L6 V2
Apache-2.0
MS Marcoパッセージランキングタスクで訓練されたクロスエンコーダモデル、情報検索におけるクエリ-パッセージ関連性スコアリング用
テキスト埋め込み 英語
M
cross-encoder
2.5M
86
Opensearch Neural Sparse Encoding Doc V2 Distill
Apache-2.0
蒸留技術に基づくスパース検索モデルで、OpenSearch向けに最適化されており、推論不要のドキュメントエンコーディングをサポートし、検索関連性と効率性においてV1版を上回ります
テキスト埋め込み
Transformers 英語

O
opensearch-project
1.8M
7
Sapbert From PubMedBERT Fulltext
Apache-2.0
PubMedBERTに基づく生物医学エンティティ表現モデルで、自己アライメント事前学習により意味関係の捕捉を最適化します。
テキスト埋め込み 英語
S
cambridgeltl
1.7M
49
Gte Large
MIT
GTE-Largeは強力なセンテンストランスフォーマーモデルで、文の類似度とテキスト埋め込みタスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
テキスト埋め込み 英語
G
thenlper
1.5M
278
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 は英語の文章変換モデルで、文章類似度タスクに特化しており、複数のテキスト埋め込みベンチマークで優れた性能を発揮します。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.5M
63
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base は50以上の言語をサポートする多言語文埋め込みモデルで、文類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.2M
246
Polybert
polyBERTは、完全に機械駆動の超高速ポリマー情報学を実現するための化学言語モデルです。PSMILES文字列を600次元の密なフィンガープリントにマッピングし、ポリマー化学構造を数値形式で表現します。
テキスト埋め込み
Transformers

P
kuelumbus
1.0M
5
Bert Base Turkish Cased Mean Nli Stsb Tr
Apache-2.0
トルコ語BERTベースの文埋め込みモデルで、意味的類似性タスクに最適化
テキスト埋め込み
Transformers その他

B
emrecan
1.0M
40
GIST Small Embedding V0
MIT
BAAI/bge-small-en-v1.5モデルを微調整したテキスト埋め込みモデルで、MEDIデータセットとMTEB分類タスクデータセットで訓練され、検索タスクのクエリエンコーディング能力を最適化しました。
テキスト埋め込み
Safetensors 英語
G
avsolatorio
945.68k
29
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98