Opus V1.2 Llama 3 8b
專為故事創作與角色扮演優化的Llama 3 8B模型,支持可控敘事和交互式體驗
下載量 21
發布時間 : 4/19/2024
模型概述
基於Llama 3 8B架構優化的創意寫作模型,擅長生成連貫的故事發展和生動的角色互動
模型特點
擴展版ChatML格式支持
採用特殊提示格式實現多角色視角敘事控制
長上下文記憶
支持最長31000token的上下文窗口,保持長篇敘事連貫性
可控敘事生成
通過系統提示和用戶指令精確控制故事發展方向
模型能力
故事續寫
角色扮演對話
情節概要生成
角色設定創作
文風分析
大綱轉章節
使用案例
創意寫作
奇幻小說創作
根據用戶提供的故事設定自動生成連貫的奇幻冒險情節
生成符合設定風格的多章節敘事文本
角色互動場景
模擬多個角色間的自然對話和互動
生成符合角色性格的對話和行為描述
內容分析
故事梗概提煉
從長篇文本中提取核心情節要點
生成50-200字不等的精煉摘要
角色特徵分析
解析文本中角色的性格特點和背景故事
生成50字左右的角色描述
🚀 Llama 3 DreamGen Opus
用於(可引導)故事寫作和角色扮演的模型,為創作故事和進行角色扮演提供強大支持。
🚀 快速開始
本模型存在一些問題,請使用以下預覽模型代替:
如果模型無法停止生成輸出,請閱讀此討論。

用於**(可引導)故事寫作和角色扮演**的模型。
所有Opus V1模型,包括量化模型。
✨ 主要特性
本模型的主要目標是在故事寫作和角色扮演方面表現出色,同時也能夠處理一些與寫作相關的任務以及提供一般性的輔助。
📚 詳細文檔
資源
- Opus V1提示指南,包含許多(交互式)示例和可複製的提示。
- Google Colab,用於使用
opus-v1.2-7b
進行交互式角色扮演。 - Python代碼,用於正確格式化提示。
- 加入Discord社區,以提前訪問新模型。
提示
模型使用擴展版的ChatML。
<|im_start|>system
(此處為正確格式的故事描述)
(通常包括情節描述、風格描述和角色信息)<|im_end|>
<|im_start|>user
(你關於故事如何繼續的指令)<|im_end|>
<|im_start|>text names= Alice
(從Alice角色角度的故事續寫)<|im_end|>
<|im_start|>text
(無特定角色的故事續寫(純敘述))<|im_end|>
<|im_start|>user
(你關於故事如何繼續的指令)<|im_end|>
<|im_start|>text names= Bob
(從Bob角色角度的故事續寫)<|im_end|>
Opus V1擴展部分是增加了text
角色,以及角色名稱的添加/修改。
請注意以下幾點:
text
消息可以(但不必須)有names
,名稱用於在角色扮演中指示“活躍”角色。- 可以有多個連續的
text
角色消息,特別是涉及名稱時。 - 一條消息可以附帶多個名稱。
- 名稱的格式為
names= {{name[0]}}; {{name[1]}}
,注意names=
和;
後面的空格。這種空格格式能使名稱的分詞更自然。
不同任務的提示方式
可引導的故事寫作和角色扮演
- 故事寫作提示指南
- 角色扮演提示指南
- 輸入:
- 系統提示:你提供故事/角色扮演描述,包括:
- 情節描述
- 風格描述
- 角色及其描述
- 對話輪次:
- 文本/消息輪次:代表故事或角色扮演的一部分
- 指令:告知模型接下來應該發生什麼
- 系統提示:你提供故事/角色扮演描述,包括:
- 輸出:故事/角色扮演的續寫。
故事情節總結
- 提示指南
- 輸入:一個故事或故事的幾章。
- 輸出:故事或章節的描述。
示例
[短篇小說](https://www.libraryofshortstories.com/onlinereader/the-last-incantation)的50字總結
強大的魔法師Malygris用死靈法術從墳墓中召喚出死去已久的愛人Nylissa,但見到她後,他意識到她已不是記憶中的樣子,開始質疑愛、記憶和魔法的力量。
[短篇小說](https://www.libraryofshortstories.com/onlinereader/the-last-incantation)的200字總結
故事是一個黑暗奇幻故事,背景設定在Susran城,強大的魔法師Malygris住在圓錐形山頂的塔中。他精通各種巫術和死靈法術,卻被深深的倦怠和憂鬱所困擾。他在對年輕時愛過的女孩Nylissa的回憶中尋求慰藉。有一天,他用死靈法術召喚出Nylissa的靈魂,但看到她後,他越來越失望。他注意到她的外貌和行為與記憶中的她有細微差別,開始懷疑這是否還是他曾經認識的Nylissa,還是隻是魔法制造的幻覺。隨著他陷入這種不確定中,他越來越沮喪,對生活也越來越失望。他意識到即使魔法也無法帶回過去,無法讓他真正快樂。最後,他驅散了Nylissa的靈魂,回到孤獨的塔中,接受了自己作為一個年老疲憊巫師的命運。
[CNN新聞文章](https://edition.cnn.com/2024/02/29/health/pets-diseases-viruses-bacteria-wellness/index.html)的150字總結
文章討論了近期動物傳播疾病導致的人類死亡事件,特別是阿拉斯加痘和腺鼠疫。急診醫生、前巴爾的摩衛生專員Leana Wen博士解釋了家養寵物將疾病傳播給人類的各種方式,包括糞口傳播、抓咬以及蜱蟲、跳蚤和蚊子等媒介傳播的疾病。Wen強調了給寵物接種疫苗、保持清潔以及採取常識性預防措施以減少疾病傳播的重要性。她還建議免疫功能低下的人、嬰兒和孕婦在與動物互動時應格外小心。
[CNN新聞文章](https://edition.cnn.com/2024/02/29/health/pets-diseases-viruses-bacteria-wellness/index.html)的50字總結
一位醫生討論了動物將疾病傳播給人類的風險,重點是貓和狗等家養寵物。他們強調了接種疫苗、保持衛生和定期獸醫護理以預防這些疾病的重要性。
故事角色描述
- 提示指南
- 輸入:一個故事或故事的幾章,一組角色。
- 輸出:角色的描述。
示例
[這個故事](https://www.libraryofshortstories.com/onlinereader/the-last-incantation)中Malygris角色的50字描述
Malygris是一位古老而強大的魔法師,特徵是長長的白鬍子、冰冷的綠眼睛和紫色長袍。他精通死靈法術,擁有大量禁忌魔法知識,但被深深的憂鬱和倦怠所困擾。
[這個故事](https://www.libraryofshortstories.com/onlinereader/the-pearl-of-love)中王子角色的50字描述
王子是一個忠誠且有決心的人,因對已故王后的愛而充滿動力。起初他被描述為優雅的青年,隨著年齡增長,對愛的執著使他變得莊重而專注。
故事風格描述
- 提示指南
- 輸入:一個故事或故事的幾章。
- 輸出:故事風格的描述。
[這個故事](https://www.libraryofshortstories.com/onlinereader/the-last-incantation)的風格描述
故事採用描述性和喚起情感的寫作風格,注重氛圍和背景設定。作者使用生動詳細的語言營造出時空感,並運用各種文學手法,如明喻、隱喻和典故,增強敘事的氛圍和基調。句子結構多樣,長短句結合,使散文具有節奏感。
[這個故事](https://www.libraryofshortstories.com/onlinereader/the-pearl-of-love)的風格描述
寫作風格描述性強且富有感染力,注重愛的珍珠的美麗和宏偉。作者使用生動的意象和感官細節營造出豐富而沉浸式的氛圍。語氣崇敬而沉思,反映了王子對王后的深愛以及他為紀念她而創造永恆紀念碑的決心。
故事描述轉章節描述
- 提示指南
- 輸入:簡要的情節描述和所需的章節數。
- 輸出:每個章節的描述。
採樣參數
對於故事寫作和角色扮演,我建議使用基於“Min P”的採樣方法,min_p
範圍在[0.01, 0.1]
,temperature
範圍在[0.5, 1.5]
,具體可根據個人喜好調整。一個不錯的起始點是min_p=0.1; temperature=0.8
。
你也可以設置存在、頻率和重複懲罰,特別是在較低溫度下。
數據集
微調數據集包含約1億個可引導的故事寫作、角色扮演、寫作輔助和通用輔助示例的標記。每個示例最長可達31000個標記。
所有故事寫作和角色扮演示例均基於人類編寫的文本。
運行模型
該模型應與任何支持基礎模型的軟件兼容,但要注意提示和分詞。
我建議使用以下模型版本:
- 7B:無量化 (opus-v1.2-7b)
- 34B:無量化 (opus-v1-34b) 或 awq (opus-v1-34b-awq)
- 34B:無量化 (opus-v1.2-70b) 或 awq (opus-v1.2-70b-awq)
在DreamGen.com上免費運行
你可以在dreamgen.com上免費運行模型 —— 你可以使用內置的用戶界面進行故事寫作和角色扮演,或使用API。
本地運行
- 確保你的提示儘可能接近Opus V1
- vLLM
- Google Colab:這是一個簡單的交互式Google Colab,用於使用7B模型進行角色扮演,應該可以在T4 GPU上運行。
- 代碼:這是一個用於一個硬編碼場景的交互式聊天的簡單腳本。
- SillyTavern
- DreamGen的官方SillyTavern文檔 —— 適用於API和本地模型
- SillyTavern(暫存版)內置了用於角色扮演的DreamGen預設
- 其他預設可在此處找到,v2版本由@MarinaraSpaghetti提供
- 確保取消選擇
Skip special tokens
,否則無法正常工作 - 這只是對Opus V1提示的近似嘗試,不會完美
- 專門為內置DreamGen預設重寫的角色卡:
- Seraphina(基於默認的Seraphina卡)
- Lara Lightland(基於Deffcolony的卡)
- LM Studio
- HuggingFace
- 聊天模板
- 類似於ChatML,只是將“assistant”角色改為“text”角色。
已知問題
- 34B重複問題:34B模型有時會陷入重複相同單詞或同義詞的情況。這似乎是各種Yi 34B微調模型常見的問題。
- GGUF問題:分詞可能會出錯。一些用戶報告說
<|im_start|>
和<|im_end|>
被分詞為多個標記。此外,llama.cpp可能無法正確分詞(Yi分詞器與Llama 2分詞器略有不同)。
許可證
本模型僅供個人使用,禁止其他用途。
⚠️ 重要提示
本模型存在問題,請使用指定的預覽模型代替。如果模型無法停止生成輸出,請閱讀相關討論。
💡 使用建議
運行模型時要注意提示和分詞,可根據個人喜好調整採樣參數。本地運行時,確保提示格式正確並正確處理特殊標記。
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98