# 模型融合

Multilingual E5 Small Ko V2
Apache-2.0
基於intfloat/multilingual-e5-small微調的韓語句子轉換器,用於韓語檢索任務
文本嵌入 支持多種語言
M
dragonkue
252
2
Deepseek R1T Chimera
MIT
DeepSeek-R1T-Chimera 是一個結合了 DeepSeek-R1 智能和 DeepSeek-V3 令牌效率的開源權重模型。
大型語言模型 Transformers
D
tngtech
491
158
L3 GothicMaid Upscaled 11B
基於mergekit工具融合的8B參數語言模型,採用直通式(Passthrough)融合方法生成
大型語言模型 Transformers 英語
L
yamatazen
14
3
Cursa O1 7b V1.1
這是一個通過SLERP方法融合的預訓練語言模型,結合了pre-cursa-o1-v1.2和post-cursa-o1兩個模型的優勢。
大型語言模型 Transformers
C
marcuscedricridia
40
2
Qwen2.5 14B DeepSeek R1 1M
Apache-2.0
融合推理模型和長上下文模型優勢的多用途大語言模型
大型語言模型 Transformers
Q
mkurman
2,195
52
Llama3 Aloe 8B Alpha GGUF
蘆薈(Aloe)是一個全新的醫療大語言模型家族,通過模型融合和先進的提示策略,在同類型開源模型中極具競爭力。
大型語言模型 Transformers 英語
L
mav23
194
1
Biomistral MedMNX
BioMistral-MedMNX 是一個通過融合多個預訓練模型而創建的生物醫學領域專用語言模型,採用 DARE 和 TIES 融合方法優化性能。
大型語言模型 Transformers
B
BioMistral
3,509
4
Biomistral 7B SLERP
Apache-2.0
BioMistral-7B-slerp是通過SLERP方法合併BioMistral-7B和Mistral-7B-Instruct-v0.1的醫學領域語言模型,專注於生物醫學文本處理
大型語言模型 Transformers 支持多種語言
B
BioMistral
84
6
Sirius 10B
Apache-2.0
天狼星-10B是由TurdusBeagle-7B和Severus-7B兩個模型融合而成的大語言模型
大型語言模型 Transformers
S
FelixChao
83
1
Blockchainlabs 7B Merged Test2 4
blockchainlabs_7B_merged_test2_4 是通過 mergekit 工具融合 mlabonne/NeuralBeagle14-7B 和 udkai/Turdus 兩個模型而成的7B參數規模的大語言模型。
大型語言模型 Transformers
B
alnrg2arg
90
3
Catppt Base
Apache-2.0
CatPPT是一款通過Gradient SLERP方法融合openchat和neuralchat模型的高性能7B聊天模型,在排行榜上表現優異且無評估數據汙染。
大型語言模型 Transformers
C
rishiraj
1,286
48
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase