# 自注意力优化

Cursa O1 7b V1.1
这是一个通过SLERP方法融合的预训练语言模型,结合了pre-cursa-o1-v1.2和post-cursa-o1两个模型的优势。
大型语言模型 Transformers
C
marcuscedricridia
40
2
Vidtome
MIT
基于扩散模型的零样本视频编辑方案,通过合并视频帧间的自注意力令牌提升时间连贯性并降低内存消耗。
文本生成视频
V
jadechoghari
15
9
Koala Lightning 1b
KOALA-Lightning-1B是基于SDXL-Lightning的知识蒸馏模型,通过压缩U-Net结构实现高效文本生成图像,参数规模1.16B
文本生成图像
K
etri-vilab
390
7
MISTRALNEURAL 7B Slerp
Apache-2.0
MISTRALNEURAL-7B-slerp是通过mergekit工具融合Mistral-7B和Neural-Chat-7B两个模型而成的7B参数大语言模型
大型语言模型 Transformers
M
EdBerg
15
1
Eris LelantaclesV2 7b
该模型是通过SLERP方法合并Eros-7b-test和Eris-Lelanacles-7b两个7B参数模型得到的混合模型
大型语言模型 Transformers
E
ChaoticNeutrals
22
4
M7 7b
Apache-2.0
M7-7b 是一个通过 mergekit 工具融合多个 7B 参数规模模型的实验性项目,旨在整合不同模型的优势以提升性能。
大型语言模型 Transformers
M
liminerity
8,909
16
Blockchainlabs 7B Merged Test2 4
blockchainlabs_7B_merged_test2_4 是通过 mergekit 工具融合 mlabonne/NeuralBeagle14-7B 和 udkai/Turdus 两个模型而成的7B参数规模的大语言模型。
大型语言模型 Transformers
B
alnrg2arg
90
3
Pavit
MIT
PaViT是基于Pathway Vision Transformer的图像识别模型,灵感来源于谷歌的PaLM,专注于小样本学习技术在图像识别任务中的应用。
图像分类 支持多种语言
P
Ajibola
20
2
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase