MT Gen1 Gemma 3 12B
這是一個使用mergekit工具合併的預訓練語言模型,採用DARE TIES方法融合了多個Gemma3-12B變體模型。
大型語言模型
Transformers

M
zelk12
118
3
Magtie V1 12B
Apache-2.0
MagTie-v1-12B是一個基於DARE TIES算法合併的12B參數語言模型,融合了多個預訓練模型的優勢
大型語言模型
Transformers

M
grimjim
32
2
MT Gemma 3 12B
本項目使用mergekit和DARE TIES方法合併了soob3123/amoral-gemma3-12B-v2和IlyaGusev/saiga_gemma3_12b兩個模型,旨在提供更強大的語言處理能力。
大型語言模型
Transformers

M
zelk12
1,348
2
Elvenmaid 12B V2
ElvenMaid-12B-v2 是一個基於 ChatML 格式的 12B 參數語言模型,通過 mergekit 的 TIES 方法合併多個預訓練模型而成,支持英文和日文交互。
大型語言模型
Transformers 支持多種語言

E
yamatazen
50
4
MT2 Gen11 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型通過DARE TIES方法融合的9B參數規模語言模型,融合了多個優化版本的Gemma模型。
大型語言模型
Transformers

M
zelk12
41
3
MT3 Gen10 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型的融合模型,採用DARE TIES方法融合了多個Gemma變體,旨在提升文本生成能力。
大型語言模型
Transformers

M
zelk12
30
3
MT Gen10 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型通過DARE TIES方法合併的多模型融合版本,整合了多個Gemma變體的優勢。
大型語言模型
Transformers

M
zelk12
26
2
Dirty Muse Writer V01 Uncensored Erotica NSFW
這是一個通過mergekit工具合併的9B參數規模的語言模型,基於TIES方法融合了三個不同風格的模型
大型語言模型
Transformers

D
Mantis2024
364
4
Reasoning SCE Coder V1.0
基於SCE融合方法構建的32B參數規模大語言模型,融合了多個高性能預訓練模型
大型語言模型
Transformers

R
BenevolenceMessiah
235
3
MS3 RP Broth 24B
Apache-2.0
Tantum合併過程中的中間步驟模型,由多個24B參數的Mistral和Llama3變體合併而成,適用於角色扮演和文本生成任務。
大型語言模型
Transformers 英語

M
d-rang-d
337
6
Angelslayer 12B Unslop Mell RPMax DARKNESS V3
Apache-2.0
這是一個通過mergekit工具合併的12B參數語言模型,專注於創意寫作和角色扮演任務,具有獨特的敘事風格。
大型語言模型
Transformers

A
redrix
46
11
Neural 4 QA 7b
Apache-2.0
Neural-4-QA-7b 是一個基於多個7B參數規模模型合併的大語言模型,專注於問答任務,採用DARE-TIES合併方法優化性能。
大型語言模型
Transformers

N
Kukedlc
23
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98