# 高密度參數

MT Gen1 Gemma 3 12B
這是一個使用mergekit工具合併的預訓練語言模型,採用DARE TIES方法融合了多個Gemma3-12B變體模型。
大型語言模型 Transformers
M
zelk12
118
3
Magtie V1 12B
Apache-2.0
MagTie-v1-12B是一個基於DARE TIES算法合併的12B參數語言模型,融合了多個預訓練模型的優勢
大型語言模型 Transformers
M
grimjim
32
2
MT Gemma 3 12B
本項目使用mergekit和DARE TIES方法合併了soob3123/amoral-gemma3-12B-v2和IlyaGusev/saiga_gemma3_12b兩個模型,旨在提供更強大的語言處理能力。
大型語言模型 Transformers
M
zelk12
1,348
2
Elvenmaid 12B V2
ElvenMaid-12B-v2 是一個基於 ChatML 格式的 12B 參數語言模型,通過 mergekit 的 TIES 方法合併多個預訓練模型而成,支持英文和日文交互。
大型語言模型 Transformers 支持多種語言
E
yamatazen
50
4
MT2 Gen11 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型通過DARE TIES方法融合的9B參數規模語言模型,融合了多個優化版本的Gemma模型。
大型語言模型 Transformers
M
zelk12
41
3
MT3 Gen10 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型的融合模型,採用DARE TIES方法融合了多個Gemma變體,旨在提升文本生成能力。
大型語言模型 Transformers
M
zelk12
30
3
MT Gen10 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型通過DARE TIES方法合併的多模型融合版本,整合了多個Gemma變體的優勢。
大型語言模型 Transformers
M
zelk12
26
2
Dirty Muse Writer V01 Uncensored Erotica NSFW
這是一個通過mergekit工具合併的9B參數規模的語言模型,基於TIES方法融合了三個不同風格的模型
大型語言模型 Transformers
D
Mantis2024
364
4
Reasoning SCE Coder V1.0
基於SCE融合方法構建的32B參數規模大語言模型,融合了多個高性能預訓練模型
大型語言模型 Transformers
R
BenevolenceMessiah
235
3
MS3 RP Broth 24B
Apache-2.0
Tantum合併過程中的中間步驟模型,由多個24B參數的Mistral和Llama3變體合併而成,適用於角色扮演和文本生成任務。
大型語言模型 Transformers 英語
M
d-rang-d
337
6
Angelslayer 12B Unslop Mell RPMax DARKNESS V3
Apache-2.0
這是一個通過mergekit工具合併的12B參數語言模型,專注於創意寫作和角色扮演任務,具有獨特的敘事風格。
大型語言模型 Transformers
A
redrix
46
11
Neural 4 QA 7b
Apache-2.0
Neural-4-QA-7b 是一個基於多個7B參數規模模型合併的大語言模型,專注於問答任務,採用DARE-TIES合併方法優化性能。
大型語言模型 Transformers
N
Kukedlc
23
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase