Qwen2.5 Wolverine CODER 11B Gguf
Apache-2.0
基於Qwen2.5-Coder-7B和OlympicCoder-7B融合的11B參數編碼AI模型,能快速解決編程難題,生成高質量代碼
大型語言模型 支持多種語言
Q
DavidAU
252
1
Archaeo 32B
專為角色扮演與創意寫作打造的32B參數大語言模型,通過雙模型融合技術實現
大型語言模型
Transformers

A
Delta-Vector
481
3
Community Request 03 12B
這是使用SLERP方法合併的兩個預訓練語言模型,結合了Captain-Eris_Violet-GRPO和Wayfarer_Eris_Noctis模型的優勢。
大型語言模型
Transformers

C
Nitral-AI
49
4
Glowing Forest 2 12B
璀璨森林2代是基於璀璨森林1.5版和Rei-12B模型線性合併而成的大語言模型,專注於創意寫作和角色扮演任務。
大型語言模型
Transformers 英語

G
Ateron
23
2
Archaeo 12B GGUF
Archaeo-12B是一個專為角色扮演和創意寫作設計的12B參數大語言模型,通過合併Rei-12B和Francois-Huali-12B模型獲得
大型語言模型
A
Delta-Vector
125
12
Archaeo 12B
專為角色扮演與創意寫作設計的融合模型,採用Rei-12B與Francois-Huali-12B通過Slerp算法融合
大型語言模型
Transformers

A
Delta-Vector
168
12
Copus 2x8B
Copus-2x8B 是一個基於 Llama-3-8B 架構的混合專家模型,結合了 dreamgen/opus-v1.2-llama-3-8b 和 NousResearch/Meta-Llama-3-8B-Instruct 兩個微調版本。
大型語言模型
Transformers

C
lodrick-the-lafted
14
1
Eris Lelantacles 7b
其他
Eris-Lelanacles-7b是通過SLERP方法合併Eris-Beach_Day-7b和Lelanta-lake-7b兩個7B參數模型得到的大語言模型
大型語言模型
Transformers

E
ChaoticNeutrals
22
3
Deepmagic Coder 7b Alt
其他
DeepMagic-Coder-7b 是 DeepSeek-Coder 和 Magicoder 模型的合併版本,專注於代碼生成和編程任務。
大型語言模型
Transformers

D
rombodawg
61
7
Synatra 7B V0.3 RP Mistral 7B Instruct V0.2 Slerp
Apache-2.0
本模型是通過球面線性插值(slerp)將Mistral-7B指令微調版與Synatra-7B角色扮演版融合而成,兼具指令理解和角色扮演能力
大型語言模型
Transformers

S
MaziyarPanahi
25
1
Japanese E5 Mistral 7b Slerp
MIT
一個通過合併E5 Mistral 7B Instruct和Japanese StableLM Base Gamma 7B創建的日語文本嵌入模型,專注於句子相似度任務
文本嵌入
Transformers 日語

J
oshizo
94
7
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98