Llm2vec Sheared LLaMA Mntp Supervised
模型简介
该模型主要用于处理句子相似度相关任务,包括文本嵌入、信息检索、文本分类等,在多个数据集和任务中展现了良好的性能。
模型特点
多任务支持
支持多种自然语言处理任务,包括文本嵌入、信息检索、文本分类等。
高性能
在多个数据集和任务中展现了良好的性能,特别是在分类和检索任务中表现优异。
监督学习
采用监督学习方法训练,优化了模型在特定任务上的表现。
模型能力
文本嵌入
信息检索
文本分类
文本聚类
文本语义相似度
文本评估
文本重排序
特征提取
使用案例
信息检索
问答系统
用于构建高效的问答系统,提升检索相关答案的能力。
在 MTEB CQADupstack 系列任务中表现良好。
文档检索
用于大规模文档检索,快速找到相关文档。
在 MTEB ArguAna 任务中 MAP@10 达到 41.919。
文本分类
情感分析
用于分析文本的情感倾向,如正面或负面评价。
在 MTEB AmazonPolarityClassification 任务中准确率达到 82.0527。
主题分类
用于将文本分类到预定义的主题类别中。
在 MTEB AmazonReviewsClassification 任务中准确率达到 40.806。
文本聚类
学术论文聚类
用于将学术论文按主题进行聚类。
在 MTEB ArxivClusteringP2P 任务中 V-measure 达到 43.472。
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98