Magnolia Mell V1 12B GGUF
基於mergekit創建的預訓練語言模型融合量化GGUF文件集,採用非對稱梯度SLERP方法融合了兩個12B參數模型,適用於文本生成任務。
大型語言模型
Transformers

M
grimjim
182
1
Patricide 12B Unslop Mell
Apache-2.0
基於SLERP融合法的12B參數語言模型,合併了Mag-Mell和UnslopNemo模型的優勢,適用於創意寫作和角色扮演場景
大型語言模型
Transformers

P
redrix
1,311
16
Cydonia V1.3 Magnum V4 22B
其他
這是一個基於Cydonia-22B-v1.3和Magnum-v4-22B合併的22B參數語言模型,使用SLERP方法融合
大型語言模型
Transformers

C
knifeayumu
822
41
Cydonia V1.2 Magnum V4 22B
其他
基於Cydonia-22B-v1.2和Magnum-v4-22b合併的22B參數語言模型,採用SLERP方法融合
大型語言模型
Transformers

C
knifeayumu
52
18
Fimbulvetr Kuro Lotus 10.7B
這是一個通過SLERP球面線性插值融合法合併的兩個10.7B參數模型的混合模型,結合了Fimbulvetr和Kuro-Lotus的優勢,在文本生成任務中表現優異。
大型語言模型
Transformers

F
saishf
57
18
Chupacabra 7B V2
Apache-2.0
基於Mistral架構的7B參數大語言模型,採用SLERP融合技術合併多個高性能模型權重
大型語言模型
Transformers

C
perlthoughts
99
35
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98