Venusaur
模型概述
該模型是一個句子轉換器(sentence-transformers),主要用於計算句子之間的相似度,適用於文本匹配、信息檢索等場景。
模型特點
高效的句子嵌入
能夠將句子轉換為高維向量表示,便於計算句子間的相似度
多任務評估
在MTEB等多個基準測試中進行了全面評估
輕量級模型
相比大型語言模型,該模型更加輕量,適合資源有限的環境
模型能力
句子相似度計算
文本特徵提取
文本分類
信息檢索
文本聚類
使用案例
電子商務
產品評論分類
對亞馬遜產品評論進行情感分類
在MTEB AmazonPolarityClassification測試中準確率達到79.99%
產品相似度匹配
計算不同產品描述之間的相似度
信息檢索
問答系統
用於問答系統中的答案檢索
在MTEB ArguAna測試中NDCG@10達到34.8
基礎模型: Mihaiii/Bulbasaur
許可證: mit
庫名稱: sentence-transformers
管道標籤: sentence-similarity
標籤:
- sentence-transformers
- feature-extraction
- sentence-similarity
- gte
- mteb
數據集: - Mihaiii/qa-assistant
模型索引: - 名稱: Venusaur
結果:- 任務:
類型: 分類
數據集:
類型: mteb/amazon_counterfactual
名稱: MTEB AmazonCounterfactualClassification (en)
配置: en
拆分: test
修訂版本: e8379541af4e31359cca9fbcf4b00f2671dba205
指標:- 類型: 準確率
值: 73.17910447761194 - 類型: 平均精度
值: 35.29994612283548 - 類型: F1分數
值: 66.87845205993153
- 類型: 準確率
- 任務:
類型: 分類
數據集:
類型: mteb/amazon_polarity
名稱: MTEB AmazonPolarityClassification
配置: default
拆分: test
修訂版本: e2d317d38cd51312af73b3d32a06d1a08b442046
指標:- 類型: 準確率
值: 79.993525 - 類型: 平均精度
值: 74.7042261687233 - 類型: F1分數
值: 79.9004149386498
- 類型: 準確率
- 任務:
類型: 分類
數據集:
類型: mteb/amazon_reviews_multi
名稱: MTEB AmazonReviewsClassification (en)
配置: en
拆分: test
修訂版本: 1399c76144fd37290681b995c656ef9b2e06e26d
指標:- 類型: 準確率
值: 39.656000000000006 - 類型: F1分數
值: 39.287139345446256
- 類型: 準確率
- 任務:
類型: 檢索
數據集:
類型: mteb/arguana
名稱: MTEB ArguAna
配置: default
拆分: test
修訂版本: c22ab2a51041ffd869aaddef7af8d8215647e41a
指標:- 類型: 平均精度@1
值: 16.643 - 類型: 平均精度@10
值: 28.276 - 類型: 平均精度@100
值: 29.543999999999997 - 類型: 平均精度@1000
值: 29.595 - 類型: 平均精度@20
值: 29.043000000000003 - 類型: 平均精度@3
值: 24.739 - 類型: 平均精度@5
值: 26.592 - 類型: 平均倒數排名@1
值: 17.639 - 類型: 平均倒數排名@10
值: 28.631 - 類型: 平均倒數排名@100
值: 29.891000000000002 - 類型: 平均倒數排名@1000
值: 29.942999999999998 - 類型: 平均倒數排名@20
值: 29.391000000000002 - 類型: 平均倒數排名@3
值: 25.107000000000003 - 類型: 平均倒數排名@5
值: 26.942 - 類型: 標準化折損累積增益@1
值: 16.643 - 類型: 標準化折損累積增益@10
值: 34.8 - 類型: 標準化折損累積增益@100
值: 41.179 - 類型: 標準化折損累積增益@1000
值: 42.564 - 類型: 標準化折損累積增益@20
值: 37.601 - 類型: 標準化折損累積增益@3
值: 27.356 - 類型: 標準化折損累積增益@5
值: 30.725 - 類型: 精確率@1
值: 16.643 - 類型: 精確率@10
值: 5.576 - 類型: 精確率@100
值: 0.861 - 類型: 精確率@1000
值: 0.097 - 類型: 精確率@20
值: 3.343 - 類型: 精確率@3
值: 11.641 - 類型: 精確率@5
值: 8.634 - 類型: 召回率@1
值: 16.643 - 類型: 召回率@10
值: 55.761 - 類型: 召回率@100
值: 86.06 - 類型: 召回率@1000
值: 97.013 - 類型: 召回率@20
值: 66.85600000000001 - 類型: 召回率@3
值: 34.922 - 類型: 召回率@5
值: 43.172
- 類型: 平均精度@1
- 任務:
類型: 聚類
數據集:
類型: mteb/arxiv-clustering-p2p
名稱: MTEB ArxivClusteringP2P
配置: default
拆分: test
修訂版本: a122ad7f3f0291bf49cc6f4d32aa80929df69d5d
指標:- 類型: V度量
值: 31.76467048453136 - 類型: V度量列表
值: [0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699811227722488, 0.36806220730606526, 0.3696328229784335, 0.3852970338255622, 0.37157613433218695, 0.368267862192135, 0.3715516752706066, 0.26093751350716654, 0.24003989063421033, 0.31112640151573373, 0.2509815194812587, 0.19256512170374224, 0.2638556294764011, 0.08503820346290819, 0.1374194639615466, 1.0, 0.21057893489306592, 0.2646936786804572, 0.27790871012280266, 0.29027802989910717, 0.27400555976615254, 0.2823478131745678, 0.25739544436992295, 0.3014171939280134, 0.2862214695233955, 0.2856734533249879, 0.2870107976688266, 0.3709000837926645, 0.3702167780750079, 0.36556393540769305, 0.37650336515785243, 0.3699
- 類型: V度量
- 任務:
Jina Embeddings V3
Jina Embeddings V3 是一個多語言句子嵌入模型,支持超過100種語言,專注於句子相似度和特徵提取任務。
文本嵌入
Transformers 支持多種語言

J
jinaai
3.7M
911
Ms Marco MiniLM L6 V2
Apache-2.0
基於MS Marco段落排序任務訓練的交叉編碼器模型,用於信息檢索中的查詢-段落相關性評分
文本嵌入 英語
M
cross-encoder
2.5M
86
Opensearch Neural Sparse Encoding Doc V2 Distill
Apache-2.0
基於蒸餾技術的稀疏檢索模型,專為OpenSearch優化,支持免推理文檔編碼,在搜索相關性和效率上優於V1版本
文本嵌入
Transformers 英語

O
opensearch-project
1.8M
7
Sapbert From PubMedBERT Fulltext
Apache-2.0
基於PubMedBERT的生物醫學實體表徵模型,通過自對齊預訓練優化語義關係捕捉
文本嵌入 英語
S
cambridgeltl
1.7M
49
Gte Large
MIT
GTE-Large 是一個強大的句子轉換器模型,專注於句子相似度和文本嵌入任務,在多個基準測試中表現出色。
文本嵌入 英語
G
thenlper
1.5M
278
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 是一個英文句子轉換器模型,專注於句子相似度任務,在多個文本嵌入基準測試中表現優異。
文本嵌入
Transformers 支持多種語言

G
Alibaba-NLP
1.5M
63
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base 是一個多語言的句子嵌入模型,支持超過50種語言,適用於句子相似度計算等任務。
文本嵌入
Transformers 支持多種語言

G
Alibaba-NLP
1.2M
246
Polybert
polyBERT是一個化學語言模型,旨在實現完全由機器驅動的超快聚合物信息學。它將PSMILES字符串映射為600維密集指紋,以數值形式表示聚合物化學結構。
文本嵌入
Transformers

P
kuelumbus
1.0M
5
Bert Base Turkish Cased Mean Nli Stsb Tr
Apache-2.0
基於土耳其語BERT的句子嵌入模型,專為語義相似度任務優化
文本嵌入
Transformers 其他

B
emrecan
1.0M
40
GIST Small Embedding V0
MIT
基於BAAI/bge-small-en-v1.5模型微調的文本嵌入模型,通過MEDI數據集與MTEB分類任務數據集訓練,優化了檢索任務的查詢編碼能力。
文本嵌入
Safetensors 英語
G
avsolatorio
945.68k
29
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98