# 少样本学习

Setfit Model Paraphrase MiniLM L6 V2
这是一个基于SetFit的高效少样本学习模型,用于文本分类任务,采用sentence-transformers/paraphrase-MiniLM-L6-v2作为句子嵌入模型和LogisticRegression进行分类。
文本分类
S
hleAtKeeper
418
1
Sapiens Pretrain 0.6b
Sapiens是基于3亿张1024×1024分辨率人体图像预训练的视觉Transformer模型,擅长以人为中心的视觉任务。
图像分类 英语
S
facebook
13
0
Diffusion Aurora 256
一个基于扩散模型的极光图像生成模型,能够生成高质量的极光图像。
图像生成
D
li-yan
51
1
Tweety 7b Tatar V24a
Apache-2.0
针对鞑靼语开发的跨词元大语言模型,基于Mistral-7B-Instruct-v0.2转换而来
大型语言模型 Transformers 其他
T
Tweeties
37
11
Rho Math 1b V0.1
MIT
Rho-1是一个专注于数学领域的语言模型,通过选择性语言建模(SLM)方法进行预训练,显著提升了数学问题解决的准确率。
大型语言模型 Transformers 英语
R
microsoft
1,451
15
Setfit All MiniLM L6 V2 Sst2 32 Shot
Apache-2.0
这是一个在sst2数据集上训练的SetFit模型,用于英文文本分类任务,采用高效的少样本学习技术训练。
文本分类 英语
S
tomaarsen
23
7
Sabia 7b
Sabiá-7B是由Maritaca AI开发的葡萄牙语大语言模型,基于LLaMA-1-7B架构,专门针对葡萄牙语进行了优化。
大型语言模型 Transformers 其他
S
maritaca-ai
1,326
117
Idefics 9b
其他
IDEFICS是一个开源的多模态模型,能够处理图像和文本输入并生成文本输出,是Deepmind Flamingo模型的开源复现版本。
图像生成文本 Transformers 英语
I
HuggingFaceM4
3,676
46
Idefics 80b
其他
IDEFICS-9B是一个90亿参数的多模态模型,能够处理图像和文本输入并生成文本输出,是Deepmind Flamingo模型的开源复现版本。
图像生成文本 Transformers 英语
I
HuggingFaceM4
70
70
Fewshotissueclassifier NLBSE23
Gpl-3.0
基于Sentence Transformers的句子相似度模型,针对问题报告分类任务微调,支持缺陷/文档/功能/疑问4类分类
文本分类 英语
F
PeppoCola
27
4
Omnitab Large
OmniTab是基于BART架构的表格问答模型,通过自然与合成数据预训练实现少样本表格问答能力
问答系统 Transformers 英语
O
neulab
158
2
Omnitab Large Finetuned Wtq
OmniTab是基于表格的问答模型,通过自然与合成数据预训练实现少样本表格问答能力。
问答系统 Transformers 英语
O
neulab
55
7
Vit Msn Large 7
Apache-2.0
该视觉Transformer模型采用MSN方法预训练,在少样本场景下表现出色,适用于图像分类等任务
图像分类 Transformers
V
facebook
67
2
Vit Msn Base 4
Apache-2.0
该视觉Transformer模型采用MSN方法预训练,在少样本场景下表现优异,适用于图像分类等任务
图像分类 Transformers
V
facebook
62
1
Vit Msn Large
Apache-2.0
采用MSN方法预训练的视觉Transformer模型,在少样本场景下表现优异
图像分类 Transformers
V
facebook
48
1
Vit Msn Base
Apache-2.0
采用MSN方法预训练的视觉Transformer模型,适用于少样本图像分类任务
图像分类 Transformers
V
facebook
694
0
Vit Msn Small
Apache-2.0
该视觉Transformer模型采用MSN方法进行预训练,适用于少样本学习场景,特别适合图像分类任务。
图像分类 Transformers
V
facebook
3,755
1
Xclip Base Patch16 Ucf 16 Shot
MIT
X-CLIP是CLIP的扩展版本,用于通用视频语言理解,支持零样本、少样本或全监督的视频分类任务。
视频处理 Transformers 英语
X
microsoft
92
2
Xclip Base Patch16 Ucf 8 Shot
MIT
X-CLIP是CLIP的极简扩展,用于通用视频语言理解,以对比方式在(视频,文本)对上训练,适用于零样本、少样本或全监督视频分类以及视频-文本检索等任务。
视频处理 Transformers 英语
X
microsoft
16
0
Xclip Base Patch16 Hmdb 16 Shot
MIT
X-CLIP是CLIP的扩展版本,用于通用视频语言理解,支持视频分类和视频-文本检索任务。
视频处理 Transformers 英语
X
microsoft
49
0
Xclip Base Patch16 Hmdb 2 Shot
MIT
X-CLIP是CLIP的扩展版本,用于通用视频语言理解,通过对比学习在视频和文本对上训练,支持零样本、少样本和全监督的视频分类任务。
文本生成视频 Transformers 英语
X
microsoft
19
0
Papugapt2
基于GPT2架构的波兰语文本生成模型,填补了波兰语NLP领域空白,采用多语言Oscar语料库训练
大型语言模型 其他
P
flax-community
804
11
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase