# 多模型融合

Gama 12b GGUF
Gama-12B是一個多語言支持的大語言模型,提供多種量化版本以適應不同性能和精度需求。
大型語言模型 Transformers 支持多種語言
G
mradermacher
185
1
Kiradepth V12 Sdxl
其他
KiraDepth 是一個基於穩定擴散XL的文本到圖像生成模型,專注於生成具有深度、細節和陰影的2.25D/2.5D風格圖像,特別適合動漫風格的創作。
圖像生成 英語
K
John6666
113
1
Knowledgecore 12B
KnowledgeCore.12B 是一個通過 mergekit 工具合併的 12B 參數規模的大型語言模型,基於 PocketDoc/Dans-PersonalityEngine-V1.1.0-12b 和 inflatebot/MN-12B-Mag-Mell-R1 模型融合而成。
大型語言模型 Transformers
K
yamatazen
15
2
The True Abomination 24B
這是一個專注於角色扮演能力的24B參數語言模型,通過多種先進合併技術融合多個優秀模型而成,特別優化了傳統推理能力和SillyTavern兼容性。
大型語言模型 Transformers 支持多種語言
T
Casual-Autopsy
34
2
Paxinium
這是一個使用mergekit工具合併的12B參數規模的大語言模型,融合了多個優秀模型的特性。
大型語言模型 Transformers
P
DreadPoor
28
1
Paxinium 12b Model Stock
這是一個通過mergekit工具合併多個12B參數規模預訓練語言模型的項目,旨在融合不同模型的優勢,提升語言處理能力。
大型語言模型 Transformers
P
DreadPoor
212
3
Esotericknowledge 24B
這是一個24B參數規模的合併語言模型,採用TIES方法融合了多個24B規模的預訓練模型,專注於提供高質量的文本生成和理解能力。
大型語言模型 Transformers
E
yamatazen
122
4
MT Gen1 Gemma 3 12B
這是一個使用mergekit工具合併的預訓練語言模型,採用DARE TIES方法融合了多個Gemma3-12B變體模型。
大型語言模型 Transformers
M
zelk12
118
3
Magtie V1 12B
Apache-2.0
MagTie-v1-12B是一個基於DARE TIES算法合併的12B參數語言模型,融合了多個預訓練模型的優勢
大型語言模型 Transformers
M
grimjim
32
2
MT Gemma 3 12B
本項目使用mergekit和DARE TIES方法合併了soob3123/amoral-gemma3-12B-v2和IlyaGusev/saiga_gemma3_12b兩個模型,旨在提供更強大的語言處理能力。
大型語言模型 Transformers
M
zelk12
1,348
2
Aurora Borealis LLaMa 70B
這是一個基於LLaMa-70B架構的多模型融合實驗項目,採用DARE TIES融合方法,結合了6個不同版本的MO-MODEL模型。
大型語言模型 Transformers
A
Tarek07
112
6
Comet 12B V.5
基於多個預訓練語言模型的融合成果,V.5版本在穩定性和內容表現上有所提升
大型語言模型 Transformers
C
OddTheGreat
35
1
Karmix XL V0
一個使用Karcher均值合併方法創建的文本到圖像生成模型,可將文本描述轉化為圖像。
文本生成圖像 英語
K
chemwolf
453
3
Magsoup V1 12B
這是一個通過mergekit工具融合多個12B參數規模語言模型的結果,以Magnolia-v3-12B為基礎模型進行融合
大型語言模型 Transformers
M
grimjim
59
3
Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
這是一個基於Qwen2.5-32B的合併模型,融合了DeepSeek-R1-Distill-Qwen-32B、QwQ-32B和Sky-T1-32B-Flash的特點,旨在提升性能。
大型語言模型 Transformers
Q
sm54
14
4
Godslayer 12B ABYSS
GodSlayer-12B-ABYSS 是一個通過 mergekit 合併多個預訓練語言模型得到的12B參數模型,旨在保持穩定性和連貫性的同時,減少積極性偏見,提高現實主義和多樣化響應能力。
大型語言模型 Transformers
G
redrix
78
12
Black Ink Guild Pernicious Prophecy 70B EmbedFix
這是基於多個70B參數模型的合併改進版本,主要調整了嵌入層尺寸以匹配標準L3 70B模型規格。
大型語言模型 Transformers 英語
B
Strangedove
78
2
Qwen2.5 The Wisemen QwQ Deep Tiny Sherlock 32B
Apache-2.0
基於QwQ-32B推理與思維模型,融合了多個頂級推理模型的特色,專注於減少提示中的'過度思考',適用於創意用例和深入推理。
大型語言模型 Transformers 其他
Q
DavidAU
763
4
Kaiden Sakura Violet Square Azura Crimson 12B
Apache-2.0
這是一個基於多個預訓練語言模型合併的12B參數大語言模型,採用mergekit工具合併,適用於文本生成任務。
大型語言模型 Transformers
K
kainatq
81
2
Violet Lyra Gutenberg V4
這是一個基於多個高質量模型合併的混合模型,專注於中文文本生成和對話任務。
大型語言模型 Transformers
V
ohyeah1
13
2
MN Nyx Chthonia 12B
這是一個基於多個12B參數規模模型的合併版本,採用model_stock方法融合了7個不同特性的預訓練語言模型,以增強綜合能力。
大型語言模型 Transformers
M
mergekit-community
31
2
Llama 3 70b Arimas Story RP V1.6 4.0bpw H6 Exl2
基於Llama 3 70B架構的合併模型,專為故事生成和角色扮演優化,支持長上下文窗口
大型語言模型 Transformers
L
kim512
20
1
Llama 3 70b Arimas Story RP V1.6 3.5bpw H6 Exl2
基於Llama-3-70B的合併模型,專注於故事生成和角色扮演(RP)任務,通過breadcrumbs_ties方法合併多個高質量模型
大型語言模型 Transformers
L
kim512
21
1
Llama 3 70b Arimas Story RP V1.6 3.0bpw H6 Exl2
這是Llama-3-70B模型的角色扮演和故事生成專用版本,經過多模型合併優化和EXL2量化處理
大型語言模型 Transformers
L
kim512
25
1
Llama 3 Psychology LoRA Stock 8B
這是一個基於Llama-3架構的融合模型,專門用於心理健康治療和心理醫生對話場景,整合了多個心理健康領域的微調模型。
大型語言模型 Transformers
L
Cas-Warehouse
25
1
Llama 3 70b Arimas Story RP V1.6 4.5bpw H6 Exl2
基於Llama 3 70B的合併模型,專為故事創作和角色扮演優化,支持長上下文窗口
大型語言模型 Transformers
L
kim512
17
1
Abomimegadarkgasinalgottenevereamession
這是一個基於DARE TIES方法合併的12B參數語言模型,融合了多個預訓練模型,旨在提供強大的文本生成能力。
大型語言模型 Transformers
A
ReadyArt
26
1
Elvenmaid 12B V2
ElvenMaid-12B-v2 是一個基於 ChatML 格式的 12B 參數語言模型,通過 mergekit 的 TIES 方法合併多個預訓練模型而成,支持英文和日文交互。
大型語言模型 Transformers 支持多種語言
E
yamatazen
50
4
Cyberillustrious Cyberrealistic V35 Sdxl
其他
CyberIllustrious 是一個基於穩定擴散技術的文本生成圖像模型,能夠生成高質量、照片級寫實的圖像。
圖像生成 英語
C
John6666
975
2
Anathema V14 LLaMa 70B
這是一個使用SCE合併方法整合多個70B參數Llama-3.1變體的高性能語言模型
大型語言模型 Transformers
A
TareksLab
17
2
Qwen2.5 Smooth Coder 14B Instruct
Apache-2.0
這是一個基於Qwen2.5-14B架構的多模型融合結果,採用Model Stock融合方法,結合了22個不同來源的14B參數規模模型。
大型語言模型 Transformers
Q
spacematt
38
2
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
基於Qwen2.5-Coder-14B-Instruct基礎模型,通過mergekit工具合併多個專業編碼模型的混合模型
大型語言模型 Transformers
Q
spacematt
31
3
MT2 Gen11 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型通過DARE TIES方法融合的9B參數規模語言模型,融合了多個優化版本的Gemma模型。
大型語言模型 Transformers
M
zelk12
41
3
MT1 Gen11 Gemma 2 9B
這是一個使用mergekit和DARE TIES方法合併的預訓練語言模型,基於多個Gemma-2-9B變體模型融合而成。
大型語言模型 Transformers
M
zelk12
29
2
YM 12B Model Stock
這是一個通過mergekit工具合併的12B參數規模的語言模型,基於EtherealAurora-12B-v2融合了多個優秀模型的特點
大型語言模型 Transformers
Y
DreadPoor
125
2
Qwen2.5 7B YOYO Super
Apache-2.0
Qwen2.5-7B-YOYO-super 是一個通過合併基礎模型和微調模型優化的開源大語言模型,專注於提升指令跟隨、數學和編碼能力。
大型語言模型 Transformers 支持多種語言
Q
YOYO-AI
17
3
MT Gen10 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型通過DARE TIES方法合併的多模型融合版本,整合了多個Gemma變體的優勢。
大型語言模型 Transformers
M
zelk12
26
2
Community Request 04.20 12B
其他
這是一個由多個12B參數規模的模型合併而成的大語言模型,專注於文本生成和推理任務。
大型語言模型 Transformers 英語
C
Nitral-AI
94
4
Irix 12B Model Stock
這是一個使用mergekit工具通過模型庫存方法合併多個12B參數規模語言模型的結果
大型語言模型 Transformers
I
DreadPoor
373
9
Legion V2.2 LLaMa 70B
使用 DARE TIES 方法合併的預訓練語言模型,基於 L-BASE-V1 融合多個 MERGE 模型
大型語言模型 Transformers
L
TareksTesting
24
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase