Eurydice 24b V3
Apache-2.0
歐律狄刻24b v3是基於Mistral 3.1構建的多角色對話伴侶模型,擅長創意表達、自然對話和故事敘述。
大型語言模型
Transformers 英語

E
aixonlab
151
5
Qwen3 4B Q8 0 64k 128k 256k Context GGUF
Apache-2.0
Qwen 4B模型的三種量化版本(Q8_0),分別支持64K、128K和256K的上下文長度,專為長文本生成和深度思考任務優化
大型語言模型
Q
DavidAU
401
2
Qwen3 8B NEO Imatrix Max GGUF
Apache-2.0
基於Qwen3-8B模型的NEO Imatrix量化版本,支持32K長上下文和增強推理能力
大型語言模型
Q
DavidAU
178
1
Qwen3 4B NEO Imatrix Max GGUF
Apache-2.0
這是基於Qwen3-4B模型的NEO Imatrix量化版本,採用BF16格式的MAX輸出張量以提升推理和輸出生成能力,支持32k上下文長度。
大型語言模型
Q
DavidAU
1,152
3
Llama 3.1 8B SpecialTitanFusion
Apache-2.0
一個強大的泰坦級模型融合,專為增強角色扮演、創造力和智能而設計。
大型語言模型
Transformers 英語

L
ZeroXClem
30
2
Wayfarer Eris Noctis 12B
基於Nitral-AI和LatitudeGames兩個12B參數模型的合併模型,採用slerp融合方法,具有強大的文本生成能力
大型語言模型
Transformers

W
Nitral-AI
194
16
Darkest Muse V1 Lorablated V2
這是使用mergekit工具對Darkest-muse-v1和gemma-2-9b-it-abliterated-LoRA-untied模型進行任務算術融合的成果
大型語言模型
Transformers

D
nerdigent
152
4
70B L3.3 Mhnnn X1
基於Llama-3-70B-Instruct微調的大語言模型,專注於創意文本生成和多任務處理
大型語言模型
Transformers

7
Sao10K
150
7
Smollm2 Prompt Enhance GGUF
Apache-2.0
SmolLM2-Prompt-Enhance 是一個基於 SmolLM2-135M-Instruct 微調的文本生成模型,專注於提示增強任務。
大型語言模型
Transformers 英語

S
mav23
621
1
Violet Twilight V0.2 GGUF
Apache-2.0
Violet_Twilight-v0.2是Azure_Dusk-v0.2和Crimson_Dawn-v0.2的SLERP合併模型,支持多語言文本生成任務。
大型語言模型 支持多種語言
V
Epiculous
96.97k
55
Violet Twilight V0.2
Apache-2.0
Violet_Twilight-v0.2 是 Azure_Dusk-v0.2 和 Crimson_Dawn-v0.2 的 SLERP 合併模型,支持多語言文本生成任務。
大型語言模型
Safetensors 支持多種語言
V
Epiculous
145
32
L3 8B Stheno V3.3 32K Ultra NEO V1 IMATRIX GGUF
Apache-2.0
基於NEO CLASS技術的8B參數大語言模型,具有32k上下文窗口和增強的指令遵循能力
大型語言模型 英語
L
DavidAU
1,086
11
Llama 3 KafkaLM 8B V0.1
KafkaLM 8b是基於Llama3 8b模型微調而成的德語大語言模型,專注於德語商業場景應用
大型語言模型
Transformers 支持多種語言

L
seedboxai
17
13
Fireblossom 32K 7B
基於Mistral 7B v0.1合併的7B參數語言模型,通過任務算術合併多個優秀微調模型,支持32K上下文長度,平衡創造性與推理能力
大型語言模型
Transformers

F
grimjim
21
3
Jamba Hercules
Apache-2.0
Jamba-Hercules是基於ai21labs/Jamba-v0.1微調的大語言模型,使用Locutusque/hercules-v4.0數據集進行訓練,專注於文本生成任務。
大型語言模型
Transformers

J
Severian
24
13
Lemonaderp 4.5.3 4bpw Exl2
專注於角色扮演的7B模型,此合併版本的核心在於提升創造力和減少陳詞濫調。
大型語言模型
Transformers 英語

L
Kooten
37
2
Lemonaderp 4.5.3 GGUF
專注於角色扮演的7B參數大語言模型,具有8192上下文長度,強調創造力和減少陳詞濫調
大型語言模型 英語
L
KatyTheCutie
238
28
Fimbulvetr Kuro Lotus 10.7B
這是一個通過SLERP球面線性插值融合法合併的兩個10.7B參數模型的混合模型,結合了Fimbulvetr和Kuro-Lotus的優勢,在文本生成任務中表現優異。
大型語言模型
Transformers

F
saishf
57
18
Westlake 7B V2
Apache-2.0
WestLake-7B-v2是一款專注於角色扮演和文本生成的70億參數大語言模型,在開放大語言模型排行榜上平均得分74.68。
大型語言模型
Transformers 英語

W
senseable
175
112
Llama 160M Chat V1
Apache-2.0
這是一個160M參數的Llama聊天模型,基於JackFram/llama-160m微調而來,專注於文本生成任務。
大型語言模型
Transformers 英語

L
Felladrin
586
19
Chatgpt Prompts Bart Long
Apache-2.0
基於BART-large微調的ChatGPT角色提示生成模型,可自動生成角色設定文本
大型語言模型
Transformers

C
merve
98
56
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98