Multilingual E5 Large Instruct GGUF
模型简介
该模型是一个多语言文本嵌入模型,支持超过100种语言,在文本分类、信息检索、文本聚类等自然语言处理任务中表现优异。
模型特点
多语言支持
支持超过100种语言,涵盖全球主要语种
多功能任务表现
在分类、检索、聚类等多种NLP任务中表现优异
高性能
在MTEB基准测试的多项任务中取得高分
指令优化
针对指令执行进行了特别优化
模型能力
文本分类
信息检索
文本聚类
语义相似度计算
双语文本挖掘
文本重排序
使用案例
电子商务
商品评论分类
对多语言商品评论进行情感分析和分类
在AmazonReviewsClassification任务中准确率最高达56.716%
金融
金融问答检索
从金融文档中检索相关问题答案
在FiQA2018任务中MAP@10达到39.281
客服
银行问题分类
对银行客户问题进行自动分类
在Banking77Classification任务中准确率达85.734%
跨语言应用
双语文本匹配
匹配不同语言的相似文本
在BUCC任务中准确率最高达99.655%
🚀 多语言e5大指令模型
多语言e5大指令模型支持多种语言,在分类、检索、聚类等多项任务中表现出色,可广泛应用于各类自然语言处理场景。
📚 详细文档
标签
- mteb
- sentence-transformers
- transformers
- autoquant
- gguf
支持语言
该模型支持以下多种语言: 多语言、南非荷兰语、阿姆哈拉语、阿拉伯语、阿萨姆语、阿塞拜疆语、白俄罗斯语、保加利亚语、孟加拉语、布列塔尼语、波斯尼亚语、加泰罗尼亚语、捷克语、威尔士语、丹麦语、德语、希腊语、英语、世界语、西班牙语、爱沙尼亚语、巴斯克语、波斯语、芬兰语、法语、弗里西语、爱尔兰语、苏格兰盖尔语、加利西亚语、古吉拉特语、豪萨语、希伯来语、印地语、克罗地亚语、匈牙利语、亚美尼亚语、印尼语、冰岛语、意大利语、日语、爪哇语、格鲁吉亚语、哈萨克语、高棉语、卡纳达语、韩语、库尔德语、吉尔吉斯语、拉丁语、老挝语、立陶宛语、拉脱维亚语、马尔加什语、马其顿语、马拉雅拉姆语、蒙古语、马拉地语、马来语、缅甸语、尼泊尔语、荷兰语、挪威语、奥罗莫语、奥里亚语、旁遮普语、波兰语、普什图语、葡萄牙语、罗马尼亚语、俄语、梵语、信德语、僧伽罗语、斯洛伐克语、斯洛文尼亚语、索马里语、阿尔巴尼亚语、塞尔维亚语、巽他语、瑞典语、斯瓦希里语、泰米尔语、泰卢固语、泰语、他加禄语、土耳其语、维吾尔语、乌克兰语、乌尔都语、乌兹别克语、越南语、科萨语、意第绪语、中文
许可证
该模型使用的许可证为 MIT 许可证。
模型索引
模型名为 multilingual-e5-large-instruct
,以下是其在不同任务和数据集上的表现:
任务类型 | 数据集名称 | 指标 | 值 |
---|---|---|---|
分类 | MTEB AmazonCounterfactualClassification (en) | 准确率 | 76.23880597014924 |
分类 | MTEB AmazonCounterfactualClassification (en) | 平均精度 | 39.07351965022687 |
分类 | MTEB AmazonCounterfactualClassification (en) | F1值 | 70.04836733862683 |
分类 | MTEB AmazonCounterfactualClassification (de) | 准确率 | 66.71306209850107 |
分类 | MTEB AmazonCounterfactualClassification (de) | 平均精度 | 79.01499914759529 |
分类 | MTEB AmazonCounterfactualClassification (de) | F1值 | 64.81951817560703 |
分类 | MTEB AmazonCounterfactualClassification (en-ext) | 准确率 | 73.85307346326837 |
分类 | MTEB AmazonCounterfactualClassification (en-ext) | 平均精度 | 22.447519885878737 |
分类 | MTEB AmazonCounterfactualClassification (en-ext) | F1值 | 61.0162730745633 |
分类 | MTEB AmazonCounterfactualClassification (ja) | 准确率 | 76.04925053533191 |
分类 | MTEB AmazonCounterfactualClassification (ja) | 平均精度 | 23.44983217128922 |
分类 | MTEB AmazonCounterfactualClassification (ja) | F1值 | 62.5723230907759 |
分类 | MTEB AmazonPolarityClassification | 准确率 | 96.28742500000001 |
分类 | MTEB AmazonPolarityClassification | 平均精度 | 94.8449918887462 |
分类 | MTEB AmazonPolarityClassification | F1值 | 96.28680923610432 |
分类 | MTEB AmazonReviewsClassification (en) | 准确率 | 56.716 |
分类 | MTEB AmazonReviewsClassification (en) | F1值 | 55.76510398266401 |
分类 | MTEB AmazonReviewsClassification (de) | 准确率 | 52.99999999999999 |
分类 | MTEB AmazonReviewsClassification (de) | F1值 | 52.00829994765178 |
分类 | MTEB AmazonReviewsClassification (es) | 准确率 | 48.806000000000004 |
分类 | MTEB AmazonReviewsClassification (es) | F1值 | 48.082345914983634 |
分类 | MTEB AmazonReviewsClassification (fr) | 准确率 | 48.507999999999996 |
分类 | MTEB AmazonReviewsClassification (fr) | F1值 | 47.68752844642045 |
分类 | MTEB AmazonReviewsClassification (ja) | 准确率 | 47.709999999999994 |
分类 | MTEB AmazonReviewsClassification (ja) | F1值 | 47.05870376637181 |
分类 | MTEB AmazonReviewsClassification (zh) | 准确率 | 44.662000000000006 |
分类 | MTEB AmazonReviewsClassification (zh) | F1值 | 43.42371965372771 |
分类 | MTEB Banking77Classification | 准确率 | 85.73376623376623 |
分类 | MTEB Banking77Classification | F1值 | 85.68480707214599 |
分类 | MTEB EmotionClassification | 准确率 | 51.51 |
分类 | MTEB EmotionClassification | F1值 | 47.632159862049896 |
检索 | MTEB ArguAna | MAP@1 | 31.721 |
检索 | MTEB ArguAna | MAP@10 | 49.221 |
检索 | MTEB ArguAna | MAP@100 | 49.884 |
检索 | MTEB ArguAna | MAP@1000 | 49.888 |
检索 | MTEB ArguAna | MAP@3 | 44.31 |
检索 | MTEB ArguAna | MAP@5 | 47.276 |
检索 | MTEB ArguAna | MRR@1 | 32.432 |
检索 | MTEB ArguAna | MRR@10 | 49.5 |
检索 | MTEB ArguAna | MRR@100 | 50.163000000000004 |
检索 | MTEB ArguAna | MRR@1000 | 50.166 |
检索 | MTEB ArguAna | MRR@3 | 44.618 |
检索 | MTEB ArguAna | MRR@5 | 47.541 |
检索 | MTEB ArguAna | NDCG@1 | 31.721 |
检索 | MTEB ArguAna | NDCG@10 | 58.384 |
检索 | MTEB ArguAna | NDCG@100 | 61.111000000000004 |
检索 | MTEB ArguAna | NDCG@1000 | 61.187999999999995 |
检索 | MTEB ArguAna | NDCG@3 | 48.386 |
检索 | MTEB ArguAna | NDCG@5 | 53.708999999999996 |
检索 | MTEB ArguAna | 精确率@1 | 31.721 |
检索 | MTEB ArguAna | 精确率@10 | 8.741 |
检索 | MTEB ArguAna | 精确率@100 | 0.991 |
检索 | MTEB ArguAna | 精确率@1000 | 0.1 |
检索 | MTEB ArguAna | 精确率@3 | 20.057 |
检索 | MTEB ArguAna | 精确率@5 | 14.609 |
检索 | MTEB ArguAna | 召回率@1 | 31.721 |
检索 | MTEB ArguAna | 召回率@10 | 87.411 |
检索 | MTEB ArguAna | 召回率@100 | 99.075 |
检索 | MTEB ArguAna | 召回率@1000 | 99.644 |
检索 | MTEB ArguAna | 召回率@3 | 60.171 |
检索 | MTEB ArguAna | 召回率@5 | 73.044 |
检索 | MTEB CQADupstackRetrieval | MAP@1 | 27.764166666666668 |
检索 | MTEB CQADupstackRetrieval | MAP@10 | 37.298166666666674 |
检索 | MTEB CQADupstackRetrieval | MAP@100 | 38.530166666666666 |
检索 | MTEB CQADupstackRetrieval | MAP@1000 | 38.64416666666667 |
检索 | MTEB CQADupstackRetrieval | MAP@3 | 34.484833333333334 |
检索 | MTEB CQADupstackRetrieval | MAP@5 | 36.0385 |
检索 | MTEB CQADupstackRetrieval | MRR@1 | 32.93558333333333 |
检索 | MTEB CQADupstackRetrieval | MRR@10 | 41.589749999999995 |
检索 | MTEB CQADupstackRetrieval | MRR@100 | 42.425333333333334 |
检索 | MTEB CQADupstackRetrieval | MRR@1000 | 42.476333333333336 |
检索 | MTEB CQADupstackRetrieval | MRR@3 | 39.26825 |
检索 | MTEB CQADupstackRetrieval | MRR@5 | 40.567083333333336 |
检索 | MTEB CQADupstackRetrieval | NDCG@1 | 32.93558333333333 |
检索 | MTEB CQADupstackRetrieval | NDCG@10 | 42.706583333333334 |
检索 | MTEB CQADupstackRetrieval | NDCG@100 | 47.82483333333333 |
检索 | MTEB CQADupstackRetrieval | NDCG@1000 | 49.95733333333334 |
检索 | MTEB CQADupstackRetrieval | NDCG@3 | 38.064750000000004 |
检索 | MTEB CQADupstackRetrieval | NDCG@5 | 40.18158333333333 |
检索 | MTEB CQADupstackRetrieval | 精确率@1 | 32.93558333333333 |
检索 | MTEB CQADupstackRetrieval | 精确率@10 | 7.459833333333334 |
检索 | MTEB CQADupstackRetrieval | 精确率@100 | 1.1830833333333335 |
检索 | MTEB CQADupstackRetrieval | 精确率@1000 | 0.15608333333333332 |
检索 | MTEB CQADupstackRetrieval | 精确率@3 | 17.5235 |
检索 | MTEB CQADupstackRetrieval | 精确率@5 | 12.349833333333333 |
检索 | MTEB CQADupstackRetrieval | 召回率@1 | 27.764166666666668 |
检索 | MTEB CQADupstackRetrieval | 召回率@10 | 54.31775 |
检索 | MTEB CQADupstackRetrieval | 召回率@100 | 76.74350000000001 |
检索 | MTEB CQADupstackRetrieval | 召回率@1000 | 91.45208333333332 |
检索 | MTEB CQADupstackRetrieval | 召回率@3 | 41.23425 |
检索 | MTEB CQADupstackRetrieval | 召回率@5 | 46.73983333333334 |
检索 | MTEB ClimateFEVER | MAP@1 | 12.969 |
检索 | MTEB ClimateFEVER | MAP@10 | 21.584999999999997 |
检索 | MTEB ClimateFEVER | MAP@100 | 23.3 |
检索 | MTEB ClimateFEVER | MAP@1000 | 23.5 |
检索 | MTEB ClimateFEVER | MAP@3 | 18.218999999999998 |
检索 | MTEB ClimateFEVER | MAP@5 | 19.983 |
检索 | MTEB ClimateFEVER | MRR@1 | 29.316 |
检索 | MTEB ClimateFEVER | MRR@10 | 40.033 |
检索 | MTEB ClimateFEVER | MRR@100 | 40.96 |
检索 | MTEB ClimateFEVER | MRR@1000 | 41.001 |
检索 | MTEB ClimateFEVER | MRR@3 | 37.123 |
检索 | MTEB ClimateFEVER | MRR@5 | 38.757999999999996 |
检索 | MTEB ClimateFEVER | NDCG@1 | 29.316 |
检索 | MTEB ClimateFEVER | NDCG@10 | 29.858 |
检索 | MTEB ClimateFEVER | NDCG@100 | 36.756 |
检索 | MTEB ClimateFEVER | NDCG@1000 | 40.245999999999995 |
检索 | MTEB ClimateFEVER | NDCG@3 | 24.822 |
检索 | MTEB ClimateFEVER | NDCG@5 | 26.565 |
检索 | MTEB ClimateFEVER | 精确率@1 | 29.316 |
检索 | MTEB ClimateFEVER | 精确率@10 | 9.186 |
检索 | MTEB ClimateFEVER | 精确率@100 | 1.6549999999999998 |
检索 | MTEB ClimateFEVER | 精确率@1000 | 0.22999999999999998 |
检索 | MTEB ClimateFEVER | 精确率@3 | 18.436 |
检索 | MTEB ClimateFEVER | 精确率@5 | 13.876 |
检索 | MTEB ClimateFEVER | 召回率@1 | 12.969 |
检索 | MTEB ClimateFEVER | 召回率@10 | 35.142 |
检索 | MTEB ClimateFEVER | 召回率@100 | 59.143 |
检索 | MTEB ClimateFEVER | 召回率@1000 | 78.594 |
检索 | MTEB ClimateFEVER | 召回率@3 | 22.604 |
检索 | MTEB ClimateFEVER | 召回率@5 | 27.883000000000003 |
检索 | MTEB DBPedia | MAP@1 | 8.527999999999999 |
检索 | MTEB DBPedia | MAP@10 | 17.974999999999998 |
检索 | MTEB DBPedia | MAP@100 | 25.665 |
检索 | MTEB DBPedia | MAP@1000 | 27.406000000000002 |
检索 | MTEB DBPedia | MAP@3 | 13.017999999999999 |
检索 | MTEB DBPedia | MAP@5 | 15.137 |
检索 | MTEB DBPedia | MRR@1 | 62.5 |
检索 | MTEB DBPedia | MRR@10 | 71.891 |
检索 | MTEB DBPedia | MRR@100 | 72.294 |
检索 | MTEB DBPedia | MRR@1000 | 72.296 |
检索 | MTEB DBPedia | MRR@3 | 69.958 |
检索 | MTEB DBPedia | MRR@5 | 71.121 |
检索 | MTEB DBPedia | NDCG@1 | 50.875 |
检索 | MTEB DBPedia | NDCG@10 | 38.36 |
检索 | MTEB DBPedia | NDCG@100 | 44.235 |
检索 | MTEB DBPedia | NDCG@1000 | 52.154 |
检索 | MTEB DBPedia | NDCG@3 | 43.008 |
检索 | MTEB DBPedia | NDCG@5 | 40.083999999999996 |
检索 | MTEB DBPedia | 精确率@1 | 62.5 |
检索 | MTEB DBPedia | 精确率@10 | 30.0 |
检索 | MTEB DBPedia | 精确率@100 | 10.038 |
检索 | MTEB DBPedia | 精确率@1000 | 2.0869999999999997 |
检索 | MTEB DBPedia | 精确率@3 | 46.833000000000006 |
检索 | MTEB DBPedia | 精确率@5 | 38.800000000000004 |
检索 | MTEB DBPedia | 召回率@1 | 8.527999999999999 |
检索 | MTEB DBPedia | 召回率@10 | 23.828 |
检索 | MTEB DBPedia | 召回率@100 | 52.322 |
检索 | MTEB DBPedia | 召回率@1000 | 77.143 |
检索 | MTEB DBPedia | 召回率@3 | 14.136000000000001 |
检索 | MTEB DBPedia | 召回率@5 | 17.761 |
检索 | MTEB FEVER | MAP@1 | 60.734 |
检索 | MTEB FEVER | MAP@10 | 72.442 |
检索 | MTEB FEVER | MAP@100 | 72.735 |
检索 | MTEB FEVER | MAP@1000 | 72.75 |
检索 | MTEB FEVER | MAP@3 | 70.41199999999999 |
检索 | MTEB FEVER | MAP@5 | 71.80499999999999 |
检索 | MTEB FEVER | MRR@1 | 65.212 |
检索 | MTEB FEVER | MRR@10 | 76.613 |
检索 | MTEB FEVER | MRR@100 | 76.79899999999999 |
检索 | MTEB FEVER | MRR@1000 | 76.801 |
检索 | MTEB FEVER | MRR@3 | 74.8 |
检索 | MTEB FEVER | MRR@5 | 76.12400000000001 |
检索 | MTEB FEVER | NDCG@1 | 65.212 |
检索 | MTEB FEVER | NDCG@10 | 77.988 |
检索 | MTEB FEVER | NDCG@100 | 79.167 |
检索 | MTEB FEVER | NDCG@1000 | 79.452 |
检索 | MTEB FEVER | NDCG@3 | 74.362 |
检索 | MTEB FEVER | NDCG@5 | 76.666 |
检索 | MTEB FEVER | 精确率@1 | 65.212 |
检索 | MTEB FEVER | 精确率@10 | 10.003 |
检索 | MTEB FEVER | 精确率@100 | 1.077 |
检索 | MTEB FEVER | 精确率@1000 | 0.11199999999999999 |
检索 | MTEB FEVER | 精确率@3 | 29.518 |
检索 | MTEB FEVER | 精确率@5 | 19.016 |
检索 | MTEB FEVER | 召回率@1 | 60.734 |
检索 | MTEB FEVER | 召回率@10 | 90.824 |
检索 | MTEB FEVER | 召回率@100 | 95.71600000000001 |
检索 | MTEB FEVER | 召回率@1000 | 97.577 |
检索 | MTEB FEVER | 召回率@3 | 81.243 |
检索 | MTEB FEVER | 召回率@5 | 86.90299999999999 |
检索 | MTEB FiQA2018 | MAP@1 | 23.845 |
检索 | MTEB FiQA2018 | MAP@10 | 39.281 |
检索 | MTEB FiQA2018 | MAP@100 | 41.422 |
检索 | MTEB FiQA2018 | MAP@1000 | 41.593 |
检索 | MTEB FiQA2018 | MAP@3 | 34.467 |
检索 | MTEB FiQA2018 | MAP@5 | 37.017 |
检索 | MTEB FiQA2018 | MRR@1 | 47.531 |
检索 | MTEB FiQA2018 | MRR@10 | 56.204 |
检索 | MTEB FiQA2018 | MRR@100 | 56.928999999999995 |
检索 | MTEB FiQA2018 | MRR@1000 | 56.962999999999994 |
检索 | MTEB FiQA2018 | MRR@3 | 54.115 |
检索 | MTEB FiQA2018 | MRR@5 | 55.373000000000005 |
检索 | MTEB FiQA2018 | NDCG@1 | 47.531 |
检索 | MTEB FiQA2018 | NDCG@10 | 47.711999999999996 |
检索 | MTEB FiQA2018 | NDCG@100 | 54.510999999999996 |
检索 | MTEB FiQA2018 | NDCG@1000 | 57.103 |
检索 | MTEB FiQA2018 | NDCG@3 | 44.145 |
检索 | MTEB FiQA2018 | NDCG@5 | 45.032 |
检索 | MTEB FiQA2018 | 精确率@1 | 47.531 |
检索 | MTEB FiQA2018 | 精确率@10 | 13.194 |
检索 | MTEB FiQA2018 | 精确率@100 | 2.045 |
检索 | MTEB FiQA2018 | 精确率@1000 | 0.249 |
检索 | MTEB FiQA2018 | 精确率@3 | 29.424 |
检索 | MTEB FiQA2018 | 精确率@5 | 21.451 |
检索 | MTEB FiQA2018 | 召回率@1 | 23.845 |
检索 | MTEB FiQA2018 | 召回率@10 | 54.967 |
检索 | MTEB FiQA2018 | 召回率@100 | 79.11399999999999 |
检索 | MTEB FiQA2018 | 召回率@1000 | 94.56700000000001 |
检索 | MTEB FiQA2018 | 召回率@3 | 40.256 |
检索 | MTEB FiQA2018 | 召回率@5 | 46.215 |
检索 | MTEB HotpotQA | MAP@1 | 37.819 |
检索 | MTEB HotpotQA | MAP@10 | 60.889 |
检索 | MTEB HotpotQA | MAP@100 | 61.717999999999996 |
检索 | MTEB HotpotQA | MAP@1000 | 61.778 |
检索 | MTEB HotpotQA | MAP@3 | 57.254000000000005 |
检索 | MTEB HotpotQA | MAP@5 | 59.541 |
检索 | MTEB HotpotQA | MRR@1 | 75.638 |
检索 | MTEB HotpotQA | MRR@10 | 82.173 |
检索 | MTEB HotpotQA | MRR@100 | 82.362 |
检索 | MTEB HotpotQA | MRR@1000 | 82.37 |
检索 | MTEB HotpotQA | MRR@3 | 81.089 |
检索 | MTEB HotpotQA | MRR@5 | 81.827 |
检索 | MTEB HotpotQA | NDCG@1 | 75.638 |
检索 | MTEB HotpotQA | NDCG@10 | 69.317 |
检索 | MTEB HotpotQA | NDCG@100 | 72.221 |
检索 | MTEB HotpotQA | NDCG@1000 | 73.382 |
检索 | MTEB HotpotQA | NDCG@3 | 64.14 |
检索 | MTEB HotpotQA | NDCG@5 | 67.07600000000001 |
检索 | MTEB HotpotQA | 精确率@1 | 75.638 |
检索 | MTEB HotpotQA | 精确率@10 | 14.704999999999998 |
检索 | MTEB HotpotQA | 精确率@100 | 1.698 |
检索 | MTEB HotpotQA | 精确率@1000 | 0.185 |
检索 | MTEB HotpotQA | 精确率@3 | 41.394999999999996 |
检索 | MTEB HotpotQA | 精确率@5 | 27.162999999999997 |
聚类 | MTEB ArxivClusteringP2P | V测度 | 46.40419580759799 |
聚类 | MTEB ArxivClusteringS2S | V测度 | 40.48593255007969 |
聚类 | MTEB BiorxivClusteringP2P | V测度 | 40.935218072113855 |
聚类 | MTEB BiorxivClusteringS2S | V测度 | 36.276389017675264 |
重排序 | MTEB AskUbuntuDupQuestions | MAP | 63.889179122289995 |
重排序 | MTEB AskUbuntuDupQuestions | MRR | 77.61146286769556 |
STS | MTEB BIOSSES | 余弦相似度皮尔逊相关系数 | 88.15075203727929 |
STS | MTEB BIOSSES | 余弦相似度斯皮尔曼相关系数 | 86.9622224570873 |
STS | MTEB BIOSSES | 欧几里得距离皮尔逊相关系数 | 86.70473853624121 |
STS | MTEB BIOSSES | 欧几里得距离斯皮尔曼相关系数 | 86.9622224570873 |
STS | MTEB BIOSSES | 曼哈顿距离皮尔逊相关系数 | 86.21089380980065 |
STS | MTEB BIOSSES | 曼哈顿距离斯皮尔曼相关系数 | 86.75318154937008 |
双语挖掘 | MTEB BUCC (de-en) | 准确率 | 99.65553235908142 |
双语挖掘 | MTEB BUCC (de-en) | F1值 | 99.60681976339595 |
双语挖掘 | MTEB BUCC (de-en) | 精确率 | 99.58246346555325 |
双语挖掘 | MTEB BUCC (de-en) | 召回率 | 99.65553235908142 |
双语挖掘 | MTEB BUCC (fr-en) | 准确率 | 99.26260180497468 |
双语挖掘 | MTEB BUCC (fr-en) | F1值 | 99.14520507740848 |
双语挖掘 | MTEB BUCC (fr-en) | 精确率 | 99.08650671362535 |
双语挖掘 | MTEB BUCC (fr-en) | 召回率 | 99.26260180497468 |
双语挖掘 | MTEB BUCC (ru-en) | 准确率 | 98.07412538967787 |
双语挖掘 | MTEB BUCC (ru-en) | F1值 | 97.86629719431936 |
双语挖掘 | MTEB BUCC (ru-en) | 精确率 | 97.76238309664012 |
双语挖掘 | MTEB BUCC (ru-en) | 召回率 | 98.07412538967787 |
双语挖掘 | MTEB BUCC (zh-en) | 准确率 | 99.42074776197998 |
双语挖掘 | MTEB BUCC (zh-en) | F1值 | 99.38564156573635 |
双语挖掘 | MTEB BUCC (zh-en) | 精确率 | 99.36808846761454 |
双语挖掘 | MTEB BUCC (zh-en) | 召回率 | 99.42074776197998 |
📄 许可证
本模型使用 MIT 许可证。
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98