Darksapling V1.1 Ultra Quality 7B GGUF
基於TeeZee/DarkSapling-7B-v1.1全面重製的32k上下文大語言模型,在指令遵循、推理深度和情感表達方面表現優異
下載量 433
發布時間 : 6/3/2024
模型概述
一個經過32位高清升級和量化優化的創意寫作與角色扮演專用大語言模型,支持長上下文理解並減少提示詞需求
模型特點
32k長上下文支持
擴展上下文窗口至32k tokens,顯著提升長文本連貫性
量化優化技術
Q4KM量化級別實現240點性能提升,使低量化級別達到高量化表現
創意表達增強
在情感表達、細節描寫和角色扮演方面有顯著優化
提示效率提升
減少提示詞需求,釋放更多上下文空間用於輸出內容
模型能力
創意寫作
故事生成
角色扮演對話
長文本連貫生成
情感豐富的文本輸出
使用案例
創意寫作
小說創作
生成具有複雜情節和人物弧光的完整故事
產出情感豐富、細節精緻的文學作品
互動娛樂
角色扮演遊戲
作為AI角色進行長時間情境保持的互動對話
保持角色一致性長達32k tokens的上下文記憶
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98