# 自注意力優化

Cursa O1 7b V1.1
這是一個通過SLERP方法融合的預訓練語言模型,結合了pre-cursa-o1-v1.2和post-cursa-o1兩個模型的優勢。
大型語言模型 Transformers
C
marcuscedricridia
40
2
Vidtome
MIT
基於擴散模型的零樣本視頻編輯方案,通過合併視頻幀間的自注意力令牌提升時間連貫性並降低內存消耗。
文本生成視頻
V
jadechoghari
15
9
Koala Lightning 1b
KOALA-Lightning-1B是基於SDXL-Lightning的知識蒸餾模型,通過壓縮U-Net結構實現高效文本生成圖像,參數規模1.16B
文本生成圖像
K
etri-vilab
390
7
MISTRALNEURAL 7B Slerp
Apache-2.0
MISTRALNEURAL-7B-slerp是通過mergekit工具融合Mistral-7B和Neural-Chat-7B兩個模型而成的7B參數大語言模型
大型語言模型 Transformers
M
EdBerg
15
1
Eris LelantaclesV2 7b
該模型是通過SLERP方法合併Eros-7b-test和Eris-Lelanacles-7b兩個7B參數模型得到的混合模型
大型語言模型 Transformers
E
ChaoticNeutrals
22
4
M7 7b
Apache-2.0
M7-7b 是一個通過 mergekit 工具融合多個 7B 參數規模模型的實驗性項目,旨在整合不同模型的優勢以提升性能。
大型語言模型 Transformers
M
liminerity
8,909
16
Blockchainlabs 7B Merged Test2 4
blockchainlabs_7B_merged_test2_4 是通過 mergekit 工具融合 mlabonne/NeuralBeagle14-7B 和 udkai/Turdus 兩個模型而成的7B參數規模的大語言模型。
大型語言模型 Transformers
B
alnrg2arg
90
3
Pavit
MIT
PaViT是基於Pathway Vision Transformer的圖像識別模型,靈感來源於谷歌的PaLM,專注於小樣本學習技術在圖像識別任務中的應用。
圖像分類 支持多種語言
P
Ajibola
20
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase