Speed Embedding 7b Instruct
S
Speed Embedding 7b Instruct
Haon-Chenによって開発
Speed Embedding 7B Instructは、Transformerアーキテクチャに基づく大規模言語モデルで、テキスト埋め込みと分類タスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
ダウンロード数 37
リリース時間 : 10/31/2024
モデル概要
このモデルは主にテキスト分類、検索、クラスタリングタスクに使用され、複数の自然言語処理アプリケーションをサポートし、高い精度と効率を持っています。
モデル特徴
高性能テキスト分類
複数のテキスト分類タスク、例えばAmazonレビュー分類や感情分析で優れた性能を発揮します。
強力な検索能力
複数の検索タスクで優れた性能を発揮し、高精度のドキュメント検索と質問応答システムをサポートします。
効率的なクラスタリング能力
大規模テキストクラスタリングタスク、例えば学術論文や生物医学文献のクラスタリングを効果的に処理できます。
モデル能力
テキスト分類
テキスト検索
テキストクラスタリング
感情分析
質問応答システム
使用事例
電子商取引
商品レビュー分類
Amazonの商品レビューを肯定的と否定的に分類するために使用されます。
精度が96.18%に達します
情報検索
ドキュメント検索
大規模なドキュメントライブラリから関連するドキュメントを検索するために使用されます。
複数の検索タスクで優れた性能を発揮します
学術研究
論文クラスタリング
学術論文を主題別にクラスタリングするために使用されます。
V-measureが51.12%に達します
🚀 speed-embedding-7b-instruct
speed-embedding-7b-instruct は、様々な自然言語処理タスクにおいて評価されたモデルです。分類、検索、クラスタリング、再ランキング、意味的テキスト類似度(STS)などのタスクでの性能が提供されています。
📚 ドキュメント
タグ
- mteb
- transformers
モデル評価結果
タスクタイプ | データセット名 | 指標 | 値 |
---|---|---|---|
Classification | MTEB AmazonCounterfactualClassification (en) | accuracy | 76.67164179104478 |
Classification | MTEB AmazonCounterfactualClassification (en) | ap | 39.07181577576136 |
Classification | MTEB AmazonCounterfactualClassification (en) | f1 | 70.25085237742982 |
Classification | MTEB AmazonPolarityClassification | accuracy | 96.1775 |
Classification | MTEB AmazonPolarityClassification | ap | 94.84308844303422 |
Classification | MTEB AmazonPolarityClassification | f1 | 96.17546959843244 |
Classification | MTEB AmazonReviewsClassification (en) | accuracy | 56.278000000000006 |
Classification | MTEB AmazonReviewsClassification (en) | f1 | 55.45101875980304 |
Retrieval | MTEB ArguAna | ndcg_at_1 | 33.642 |
Retrieval | MTEB ArguAna | ndcg_at_3 | 49.399 |
Retrieval | MTEB ArguAna | ndcg_at_5 | 54.108999999999995 |
Retrieval | MTEB ArguAna | ndcg_at_10 | 59.294999999999995 |
Retrieval | MTEB ArguAna | ndcg_at_100 | 62.015 |
Retrieval | MTEB ArguAna | map_at_1 | 33.642 |
Retrieval | MTEB ArguAna | map_at_3 | 45.507 |
Retrieval | MTEB ArguAna | map_at_5 | 48.1 |
Retrieval | MTEB ArguAna | map_at_10 | 50.248000000000005 |
Retrieval | MTEB ArguAna | map_at_100 | 50.954 |
Retrieval | MTEB ArguAna | recall_at_1 | 33.642 |
Retrieval | MTEB ArguAna | recall_at_3 | 60.669 |
Retrieval | MTEB ArguAna | recall_at_5 | 72.191 |
Retrieval | MTEB ArguAna | recall_at_10 | 88.193 |
Retrieval | MTEB ArguAna | recall_at_100 | 99.431 |
Retrieval | MTEB ArguAna | precision_at_1 | 33.642 |
Retrieval | MTEB ArguAna | precision_at_3 | 20.223 |
Retrieval | MTEB ArguAna | precision_at_5 | 14.438 |
Retrieval | MTEB ArguAna | precision_at_10 | 8.819 |
Retrieval | MTEB ArguAna | precision_at_100 | 0.9939999999999999 |
Retrieval | MTEB ArguAna | mrr_at_1 | 33.997 |
Retrieval | MTEB ArguAna | mrr_at_3 | 45.614 |
Retrieval | MTEB ArguAna | mrr_at_5 | 48.263 |
Retrieval | MTEB ArguAna | mrr_at_10 | 50.388999999999996 |
Retrieval | MTEB ArguAna | mrr_at_100 | 51.102000000000004 |
Clustering | MTEB ArxivClusteringP2P | v_measure | 51.1249344529392 |
Clustering | MTEB ArxivClusteringS2S | v_measure | 47.01575217563573 |
Reranking | MTEB AskUbuntuDupQuestions | map | 67.2259454062751 |
Reranking | MTEB AskUbuntuDupQuestions | mrr | 79.37508244294948 |
STS | MTEB BIOSSES | cos_sim_pearson | 89.5312396547344 |
STS | MTEB BIOSSES | cos_sim_spearman | 87.1447567367366 |
STS | MTEB BIOSSES | euclidean_pearson | 88.67110804544821 |
STS | MTEB BIOSSES | euclidean_spearman | 87.1447567367366 |
STS | MTEB BIOSSES | manhattan_pearson | 89.06983994154335 |
STS | MTEB BIOSSES | manhattan_spearman | 87.59115245033443 |
Classification | MTEB Banking77Classification | accuracy | 88.63636363636364 |
Classification | MTEB Banking77Classification | f1 | 88.58740097633193 |
Clustering | MTEB BiorxivClusteringP2P | v_measure | 41.99753263006505 |
Clustering | MTEB BiorxivClusteringS2S | v_measure | 39.623067884052666 |
Retrieval | MTEB CQADupstackRetrieval | ndcg_at_1 | 30.904666666666664 |
Retrieval | MTEB CQADupstackRetrieval | ndcg_at_3 | 36.32808333333333 |
Retrieval | MTEB CQADupstackRetrieval | ndcg_at_5 | 38.767250000000004 |
Retrieval | MTEB CQADupstackRetrieval | ndcg_at_10 | 41.62008333333333 |
Retrieval | MTEB CQADupstackRetrieval | ndcg_at_100 | 47.118083333333324 |
Retrieval | MTEB CQADupstackRetrieval | map_at_1 | 25.7645 |
Retrieval | MTEB CQADupstackRetrieval | map_at_3 | 32.6235 |
Retrieval | MTEB CQADupstackRetrieval | map_at_5 | 34.347 |
Retrieval | MTEB CQADupstackRetrieval | map_at_10 | 35.79658333333333 |
Retrieval | MTEB CQADupstackRetrieval | map_at_100 | 37.10391666666666 |
Retrieval | MTEB CQADupstackRetrieval | recall_at_1 | 25.7645 |
Retrieval | MTEB CQADupstackRetrieval | recall_at_3 | 39.622666666666674 |
Retrieval | MTEB CQADupstackRetrieval | recall_at_5 | 45.938750000000006 |
Retrieval | MTEB CQADupstackRetrieval | recall_at_10 | 54.43816666666667 |
Retrieval | MTEB CQADupstackRetrieval | recall_at_100 | 78.66183333333333 |
Retrieval | MTEB CQADupstackRetrieval | precision_at_1 | 30.904666666666664 |
Retrieval | MTEB CQADupstackRetrieval | precision_at_3 | 17.099083333333333 |
Retrieval | MTEB CQADupstackRetrieval | precision_at_5 | 12.278416666666669 |
Retrieval | MTEB CQADupstackRetrieval | precision_at_10 | 7.573083333333335 |
Retrieval | MTEB CQADupstackRetrieval | precision_at_100 | 1.22275 |
Retrieval | MTEB CQADupstackRetrieval | mrr_at_1 | 30.904666666666664 |
Retrieval | MTEB CQADupstackRetrieval | mrr_at_3 | 37.458333333333336 |
Retrieval | MTEB CQADupstackRetrieval | mrr_at_5 | 38.97333333333333 |
Retrieval | MTEB CQADupstackRetrieval | mrr_at_10 | 40.10316666666666 |
Retrieval | MTEB CQADupstackRetrieval | mrr_at_100 | 41.004250000000006 |
Retrieval | MTEB ClimateFEVER | ndcg_at_1 | 38.046 |
Retrieval | MTEB ClimateFEVER | ndcg_at_3 | 31.842 |
Retrieval | MTEB ClimateFEVER | ndcg_at_5 | 33.698 |
Retrieval | MTEB ClimateFEVER | ndcg_at_10 | 37.765 |
Retrieval | MTEB ClimateFEVER | ndcg_at_100 | 44.998 |
Retrieval | MTEB ClimateFEVER | map_at_1 | 16.682 |
Retrieval | MTEB ClimateFEVER | map_at_3 | 23.624000000000002 |
Retrieval | MTEB ClimateFEVER | map_at_5 | 25.812 |
Retrieval | MTEB ClimateFEVER | map_at_10 | 28.017999999999997 |
Retrieval | MTEB ClimateFEVER | map_at_100 | 30.064999999999998 |
Retrieval | MTEB ClimateFEVER | recall_at_1 | 16.682 |
Retrieval | MTEB ClimateFEVER | recall_at_3 | 28.338 |
Retrieval | MTEB ClimateFEVER | recall_at_5 | 34.486 |
Retrieval | MTEB ClimateFEVER | recall_at_10 | 43.474000000000004 |
Retrieval | MTEB ClimateFEVER | recall_at_100 | 67.984 |
Retrieval | MTEB ClimateFEVER | precision_at_1 | 38.046 |
Retrieval | MTEB ClimateFEVER | precision_at_3 | 23.779 |
Retrieval | MTEB ClimateFEVER | precision_at_5 | 17.849999999999998 |
Retrieval | MTEB ClimateFEVER | precision_at_10 | 11.642 |
Retrieval | MTEB ClimateFEVER | precision_at_100 | 1.9429999999999998 |
Retrieval | MTEB ClimateFEVER | mrr_at_1 | 38.046 |
Retrieval | MTEB ClimateFEVER | mrr_at_3 | 46.764 |
Retrieval | MTEB ClimateFEVER | mrr_at_5 | 48.722 |
Retrieval | MTEB ClimateFEVER | mrr_at_10 | 49.976 |
Retrieval | MTEB ClimateFEVER | mrr_at_100 | 50.693999999999996 |
Retrieval | MTEB DBPedia | ndcg_at_1 | 63.24999999999999 |
Retrieval | MTEB DBPedia | ndcg_at_3 | 54.005 |
Retrieval | MTEB DBPedia | ndcg_at_5 | 51.504000000000005 |
Retrieval | MTEB DBPedia | ndcg_at_10 | 49.738 |
Retrieval | MTEB DBPedia | ndcg_at_100 | 54.754000000000005 |
Retrieval | MTEB DBPedia | map_at_1 | 10.639 |
Retrieval | MTEB DBPedia | map_at_3 | 16.726 |
Retrieval | MTEB DBPedia | map_at_5 | 20.101 |
Retrieval | MTEB DBPedia | map_at_10 | 24.569 |
Retrieval | MTEB DBPedia | map_at_100 | 35.221999999999994 |
Retrieval | MTEB DBPedia | recall_at_1 | 10.639 |
Retrieval | MTEB DBPedia | recall_at_3 | 17.861 |
Retrieval | MTEB DBPedia | recall_at_5 | 22.642 |
Retrieval | MTEB DBPedia | recall_at_10 | 30.105999999999998 |
Retrieval | MTEB DBPedia | recall_at_100 | 60.92999999999999 |
Retrieval | MTEB DBPedia | precision_at_1 | 75.0 |
Retrieval | MTEB DBPedia | precision_at_3 | 58.083 |
Retrieval | MTEB DBPedia | precision_at_5 | 50.0 |
Retrieval | MTEB DBPedia | precision_at_10 | 40.35 |
Retrieval | MTEB DBPedia | precision_at_100 | 12.659999999999998 |
Retrieval | MTEB DBPedia | mrr_at_1 | 75.0 |
Retrieval | MTEB DBPedia | mrr_at_3 | 80.042 |
Retrieval | MTEB DBPedia | mrr_at_5 | 80.779 |
Retrieval | MTEB DBPedia | mrr_at_10 | 81.355 |
Retrieval | MTEB DBPedia | mrr_at_100 | 81.58 |
Classification | MTEB EmotionClassification | accuracy | 51.025 |
Classification | MTEB EmotionClassification | f1 | 47.08253474922065 |
Retrieval | MTEB FEVER | ndcg_at_1 | 82.163 |
Retrieval | MTEB FEVER | ndcg_at_3 | 86.835 |
Retrieval | MTEB FEVER | ndcg_at_5 | 87.802 |
Retrieval | MTEB FEVER | ndcg_at_10 | 88.529 |
Retrieval | MTEB FEVER | ndcg_at_100 | 89.17 |
Retrieval | MTEB FEVER | map_at_1 | 76.335 |
Retrieval | MTEB FEVER | map_at_3 | 83.91499999999999 |
Retrieval | MTEB FEVER | map_at_5 | 84.64500000000001 |
Retrieval | MTEB FEVER | map_at_10 | 85.058 |
Retrieval | MTEB FEVER | map_at_100 | 85.257 |
Retrieval | MTEB FEVER | recall_at_1 | 76.335 |
Retrieval | MTEB FEVER | recall_at_3 | 90.608 |
Retrieval | MTEB FEVER | recall_at_5 | 93.098 |
Retrieval | MTEB FEVER | recall_at_10 | 95.173 |
Retrieval | MTEB FEVER | recall_at_100 | 97.59299999999999 |
Retrieval | MTEB FEVER | precision_at_1 | 82.163 |
Retrieval | MTEB FEVER | precision_at_3 | 33.257999999999996 |
Retrieval | MTEB FEVER | precision_at_5 | 20.654 |
Retrieval | MTEB FEVER | precision_at_10 | 10.674999999999999 |
Retrieval | MTEB FEVER | precision_at_100 | 1.122 |
Retrieval | MTEB FEVER | mrr_at_1 | 82.163 |
Retrieval | MTEB FEVER | mrr_at_3 | 88.346 |
Retrieval | MTEB FEVER | mrr_at_5 | 88.791 |
Retrieval | MTEB FEVER | mrr_at_10 | 88.97699999999999 |
Retrieval | MTEB FEVER | mrr_at_100 | 89.031 |
Retrieval | MTEB FiQA2018 | ndcg_at_1 | 55.093 |
Retrieval | MTEB FiQA2018 | ndcg_at_3 | 52.481 |
Retrieval | MTEB FiQA2018 | ndcg_at_5 | 53.545 |
Retrieval | MTEB FiQA2018 | ndcg_at_10 | 56.053 |
Retrieval | MTEB FiQA2018 | ndcg_at_100 | 62.53999999999999 |
Retrieval | MTEB FiQA2018 | map_at_1 | 29.189999999999998 |
Retrieval | MTEB FiQA2018 | map_at_3 | 42.603 |
Retrieval | MTEB FiQA2018 | map_at_5 | 45.855000000000004 |
Retrieval | MTEB FiQA2018 | map_at_10 | 48.241 |
Retrieval | MTEB FiQA2018 | map_at_100 | 50.300999999999995 |
Retrieval | MTEB FiQA2018 | recall_at_1 | 29.189999999999998 |
Retrieval | MTEB FiQA2018 | recall_at_3 | 47.471999999999994 |
Retrieval | MTEB FiQA2018 | recall_at_5 | 54.384 |
Retrieval | MTEB FiQA2018 | recall_at_10 | 62.731 |
Retrieval | MTEB FiQA2018 | recall_at_100 | 86.02300000000001 |
Retrieval | MTEB FiQA2018 | precision_at_1 | 55.093 |
Retrieval | MTEB FiQA2018 | precision_at_3 | 34.979 |
Retrieval | MTEB FiQA2018 | precision_at_5 | 25.278 |
Retrieval | MTEB FiQA2018 | precision_at_10 | 15.231 |
Retrieval | MTEB FiQA2018 | precision_at_100 | 2.2190000000000003 |
Retrieval | MTEB FiQA2018 | mrr_at_1 | 55.093 |
Retrieval | MTEB FiQA2018 | mrr_at_3 | 61.317 |
Retrieval | MTEB FiQA2018 | mrr_at_5 | 62.358999999999995 |
Retrieval | MTEB FiQA2018 | mrr_at_10 | 63.165000000000006 |
Retrieval | MTEB FiQA2018 | mrr_at_100 | 63.81 |
Retrieval | MTEB HotpotQA | ndcg_at_1 | 78.866 |
Retrieval | MTEB HotpotQA | ndcg_at_3 | 70.128 |
Retrieval | MTEB HotpotQA | ndcg_at_5 | 73.017 |
Retrieval | MTEB HotpotQA | ndcg_at_10 | 75.166 |
Retrieval | MTEB HotpotQA | ndcg_at_100 | 77.97500000000001 |
Retrieval | MTEB HotpotQA | map_at_1 | 39.433 |
Retrieval | MTEB HotpotQA | map_at_3 | 64.165 |
Retrieval | MTEB HotpotQA | map_at_5 | 66.503 |
Retrieval | MTEB HotpotQA | map_at_10 | 67.822 |
Retrieval | MTEB HotpotQA | map_at_100 | 68.675 |
Retrieval | MTEB HotpotQA | recall_at_1 | 39.433 |
Retrieval | MTEB HotpotQA | recall_at_3 | 69.03399999999999 |
Retrieval | MTEB HotpotQA | recall_at_5 | 74.74 |
Retrieval | MTEB HotpotQA | recall_at_10 | 80.108 |
Retrieval | MTEB HotpotQA | recall_at_100 | 90.81700000000001 |
Retrieval | MTEB HotpotQA | precision_at_1 | 78.866 |
Retrieval | MTEB HotpotQA | precision_at_3 | 46.022999999999996 |
Retrieval | MTEB HotpotQA | precision_at_5 | 29.896 |
Retrieval | MTEB HotpotQA | precision_at_10 | 16.022 |
Retrieval | MTEB HotpotQA | precision_at_100 | 1.8159999999999998 |
Retrieval | MTEB HotpotQA | mrr_at_1 | 78.866 |
Retrieval | MTEB HotpotQA | mrr_at_3 | 83.91 |
Retrieval | MTEB HotpotQA | mrr_at_5 | 84.473 |
Retrieval | MTEB HotpotQA | mrr_at_10 | 84.769 |
Retrieval | MTEB HotpotQA | mrr_at_100 | 84.953 |
Classification | MTEB ImdbClassification | accuracy | 94.87799999999999 |
Classification | MTEB ImdbClassification | ap | 92.5831019543702 |
Classification | MTEB ImdbClassification | f1 | 94.87675087619891 |
Retrieval | MTEB MSMARCO | ndcg_at_1 | 23.195 |
Retrieval | MTEB MSMARCO | ndcg_at_3 | 34.419 |
Retrieval | MTEB MSMARCO | ndcg_at_5 | 38.665 |
Retrieval | MTEB MSMARCO | ndcg_at_10 | 42.549 |
Retrieval | MTEB MSMARCO | ndcg_at_100 | 48.256 |
Retrieval | MTEB MSMARCO | map_at_1 | 22.508 |
Retrieval | MTEB MSMARCO | map_at_3 | 31.346 |
Retrieval | MTEB MSMARCO | map_at_5 | 33.73 |
Retrieval | MTEB MSMARCO | map_at_10 | 35.365 |
Retrieval | MTEB MSMARCO | map_at_100 | 36.568 |
Retrieval | MTEB MSMARCO | recall_at_1 | 22.508 |
Phi 2 GGUF
その他
Phi-2はマイクロソフトが開発した小型ながら強力な言語モデルで、27億のパラメータを持ち、効率的な推論と高品質なテキスト生成に特化しています。
大規模言語モデル 複数言語対応
P
TheBloke
41.5M
205
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
Roberta Base
MIT
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
大規模言語モデル 英語
R
FacebookAI
9.3M
488
Opt 125m
その他
OPTはMeta AIが公開したオープンプリトレーニングトランスフォーマー言語モデルスイートで、パラメータ数は1.25億から1750億まであり、GPT-3シリーズの性能に対抗することを目指しつつ、大規模言語モデルのオープンな研究を促進するものです。
大規模言語モデル 英語
O
facebook
6.3M
198
1
transformersライブラリに基づく事前学習モデルで、様々なNLPタスクに適用可能
大規模言語モデル
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5ベーシック版はGoogleによって開発されたテキスト-to-テキスト変換Transformerモデルで、パラメータ規模は2.2億で、多言語NLPタスクをサポートしています。
大規模言語モデル 複数言語対応
T
google-t5
5.4M
702
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98