Qwq 32B ArliAI RpR V4 GGUF
Apache-2.0
基於Qwen/QwQ-32B的文本生成模型,專注於角色扮演和創意寫作任務,支持超低比特量化和長對話處理。
大型語言模型
Transformers 英語

Q
Mungert
523
2
Qwen3 4B Mishima Imatrix GGUF
Apache-2.0
基於Qwen3-4B的Mishima Imatrix量化版本,通過特定數據集增強散文風格生成能力
大型語言模型
Q
DavidAU
105
2
Qwen3 32B GGUF
Apache-2.0
Qwen3-32B是由Qwen團隊開發的大語言模型,支持131,072 tokens的上下文長度,具備強大的數學、編程和常識推理能力。
大型語言模型
Q
lmstudio-community
56.66k
7
Qwen3 1.7B GGUF
Qwen3-1.7B是由Qwen開發的1.7B參數規模的大語言模型,支持32k tokens超長上下文,擅長創意寫作、角色扮演和多輪對話。
大型語言模型
Q
lmstudio-community
13.32k
3
Qwen3 14B GGUF
Qwen3-14B是由Qwen開發的大語言模型,支持多種語言和方言,擅長創意寫作、角色扮演和多輪對話。
大型語言模型
Q
lmstudio-community
56.39k
9
Qwq 32B ArliAI RpR V3
Apache-2.0
QwQ-32B-ArliAI-RpR-v3是基於QwQ-32B微調的推理模型,專注於角色扮演和創意寫作,具有出色的創造力和長對話連貫性。
大型語言模型
Transformers 英語

Q
ArliAI
497
37
Llama3.1 MOE 4X8B Gated IQ Multi Tier COGITO Deep Reasoning 32B GGUF
Apache-2.0
一個具備可調節推理能力的混合專家(MoE)模型,通過4個8B模型的協作實現增強推理和文本生成能力
大型語言模型 支持多種語言
L
DavidAU
829
2
Synthia S1 27b Bnb 4bit
Synthia-S1-27b是由Tesslate AI開發的高級推理AI模型,專注於邏輯推理、編碼和角色扮演任務。
文本生成圖像
Transformers

S
GusPuffy
858
1
Gemma 3 Glitter 27B
基於Gemma 3 27B的創意寫作模型,由27B IT和27B PT各50%比例混合而成,擅長自然流暢的文本表達
大型語言模型
Transformers

G
allura-org
112
4
Llama 3.1 8B Athena Apollo Exp
Apache-2.0
通過MergeKit融合多款Llama-3.1架構模型的強大AI,擅長指令跟隨、角色扮演和創意寫作
大型語言模型
Transformers 英語

L
ZeroXClem
31
3
Gemma 3 Glitter 12B
基於Gemma 3 12B IT的創意寫作模型,融合角色扮演和長篇創意寫作能力
大型語言模型
Transformers

G
allura-org
216
15
Glowing Forest 2 12B
璀璨森林2代是基於璀璨森林1.5版和Rei-12B模型線性合併而成的大語言模型,專注於創意寫作和角色扮演任務。
大型語言模型
Transformers 英語

G
Ateron
23
2
Llama 3.x 70b Hexagon Purple V2
Hexagon Purple V2是一個基於Smartracks的三級標準合併模型,包含Deepseek Distill R1、Nemotron和Tulu能力,通過多模型合併優化性能。
大型語言模型
Transformers

L
Nexesenex
417
2
Qwen2.5 QwQ 37B Eureka Triple Cubed
Apache-2.0
QwQ-32B的增強版本,通過'立方'和'三重立方'方法提升推理和輸出能力,支持128k上下文。
大型語言模型
Transformers 其他

Q
DavidAU
210
5
Writing Model Qwen 7B
Apache-2.0
基於Qwen2.5-7B-Instruct微調的寫作評估專用模型,使用12K規模SFT數據集訓練
大型語言模型
Transformers

W
AQuarterMile
72
3
EVA Qwen2.5 72B V0.2
其他
基於Qwen2.5-72B微調的大語言模型,專注於文本生成和指令跟隨任務
大型語言模型
Transformers

E
EVA-UNIT-01
392
19
MN Violet Lotus 12B
MN-Violet-Lotus-12B 是一個基於多個高質量模型合併的12B參數大語言模型,專注於角色扮演和創意寫作,具有出色的情商表現和廣泛的角色適應能力。
大型語言模型
Transformers 英語

M
FallenMerick
247
33
Gemma 2 Ataraxy V4d 9B
Ataraxy系列中最全面的全能選手,主要提升創意寫作能力,同時在通用場景下表現優異
大型語言模型
Transformers 英語

G
lemon07r
236
16
Magnum V4 72b FP8 Dynamic
Apache-2.0
基於Qwen2.5-72B-Instruct微調的72B參數大語言模型,採用動態FP8量化技術優化推理效率,旨在復現Claude 3的散文質量
大型語言模型
Transformers 英語

M
Infermatic
2,106
2
Darksapling V2 Ultra Quality 7B GGUF
Apache-2.0
基於Dark Sapling V2 7B模型完全重新合併和重製的版本,擁有32k上下文長度,具備超高質量和32位提升特性
大型語言模型 英語
D
DavidAU
385
3
Meta Llama 3 120B Instruct
其他
通過MergeKit工具對Meta-Llama-3-70B-Instruct進行自融合創建的120B參數大語言模型,擅長創意寫作任務
大型語言模型
Transformers

M
mlabonne
17
200
Panda 7B V0.1
Apache-2.0
Panda-7B-v0.1是基於Mistral-7B-Instruct-v0.2微調的創意寫作模型,專注於生成細緻、創意且符合邏輯的敘事文本。
大型語言模型
Transformers

P
NeuralNovel
30
15
Bagel 34b V0.2
Apache-2.0
基於yi-34b-200k的實驗性微調模型,適用於創意寫作、角色扮演等任務,尚未應用DPO階段。
大型語言模型
Transformers

B
jondurbin
265
41
Lzlv 70b Fp16 Hf
基於多個LLaMA2 70B微調模型融合的角色扮演與創意工作專用模型,融合了Nous-Hermes-Llama2-70b、Xwin-LM-7B-V0.1和Mythospice-70b的特點
大型語言模型
Transformers

L
lizpreciatior
144
75
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98