Qwen3 4B Rpg Roleplay
基於千問3-4B模型微調的角色扮演對話模型,擅長生成符合角色特徵的連貫對話
下載量 1,657
發布時間 : 4/30/2025
模型概述
該模型通過LoRA微調技術優化了角色對話生成能力,特別適合用於遊戲、互動敘事等需要角色驅動的場景。
模型特點
角色一致性保持
能夠生成符合角色特徵的對話,保持人設一致性
情境感知對話
根據場景上下文生成身臨其境的敘事回應
高效微調技術
採用LoRA微調和4比特量化技術,實現高效訓練
多格式支持
提供4比特(bnb)、GGUF等多種量化格式選擇
模型能力
角色對話生成
劇情互動
多輪對話維持
情感語境響應
使用案例
遊戲開發
NPC對話系統
為遊戲中的非玩家角色生成個性鮮明的對話
提升遊戲沉浸感和角色真實感
互動敘事
角色驅動型故事
創建基於角色互動的動態敘事體驗
增強用戶參與度和故事可變性
🚀 Qwen3-4B角色扮演LoRA
讓角色在對話中鮮活起來

用自然、引人入勝的對話賦予你的數字夥伴生命
🚀 快速開始
Hugging Face Transformers
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# Load model with 4-bit quantization for efficiency
tokenizer = AutoTokenizer.from_pretrained("chun121/qwen3-4b-roleplay-lora")
model = AutoModelForCausalLM.from_pretrained(
"chun121/qwen3-4b-roleplay-lora",
torch_dtype=torch.float16, # Use float16 for faster inference
device_map="auto" # Automatically choose best device
)
# Create a character-focused prompt
character_prompt = """
Character: Elara, an elven mage with centuries of knowledge but little patience for novices
Setting: The Grand Library of Mystral
Context: A young apprentice has asked for help with a difficult spell
User: Excuse me, I'm having trouble with the fire conjuration spell. Could you help me?
Elara:
"""
# Generate response
inputs = tokenizer(character_prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
inputs["input_ids"],
max_new_tokens=200,
temperature=0.7,
top_p=0.9,
do_sample=True
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
使用GGUF模型
如果你正在使用帶有llama.cpp的GGUF導出文件:
# Example command for Q4_K_M quantization
./llama -m chun121-qwen3-4b-roleplay-lora.Q4_K_M.gguf -p "Character: Elara, an elven mage..." -n 200
✨ 主要特性
歡迎,各位創作者!我是Chun(@chun121),我對令人印象深刻的Qwen3 - 4B模型進行了微調,使其在基於角色的對話和角色扮演場景中表現出色。無論你是在製作沉浸式遊戲、構建交互式講故事平臺,還是開發以角色為驅動的人工智能體驗,這個模型都將幫助你的角色說話時展現出個性、連貫性和深度。
這個LoRA適配版本在保持基礎模型智能的同時,增強了以下能力:
- 保持一致的角色人設
- 生成反映角色特徵的真實對話
- 創建沉浸式的敘事回覆
- 在整個對話中記住上下文
📦 安裝指南
文檔中未提及安裝步驟,故跳過此章節。
💻 使用示例
基礎用法
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# Load model with 4-bit quantization for efficiency
tokenizer = AutoTokenizer.from_pretrained("chun121/qwen3-4b-roleplay-lora")
model = AutoModelForCausalLM.from_pretrained(
"chun121/qwen3-4b-roleplay-lora",
torch_dtype=torch.float16, # Use float16 for faster inference
device_map="auto" # Automatically choose best device
)
# Create a character-focused prompt
character_prompt = """
Character: Elara, an elven mage with centuries of knowledge but little patience for novices
Setting: The Grand Library of Mystral
Context: A young apprentice has asked for help with a difficult spell
User: Excuse me, I'm having trouble with the fire conjuration spell. Could you help me?
Elara:
"""
# Generate response
inputs = tokenizer(character_prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
inputs["input_ids"],
max_new_tokens=200,
temperature=0.7,
top_p=0.9,
do_sample=True
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
高級用法
# Example command for Q4_K_M quantization
./llama -m chun121-qwen3-4b-roleplay-lora.Q4_K_M.gguf -p "Character: Elara, an elven mage..." -n 200
📚 詳細文檔
推薦用法
此模型在以下情況下效果最佳:
- 提供角色背景信息:包括角色的個性、背景和當前情況的簡要描述。
- 設定場景:給出環境和情境的背景信息。
- 使用聊天格式:將輸入組織成用戶/人類與角色之間的對話。
- 保持溫度值:0.7 - 0.8之間的值能在創造性和連貫性之間取得良好平衡。
侷限性
- 上下文窗口限制為512個標記。
- 在非常長的對話中偶爾可能會“忘記”角色特徵。
- 訓練數據集主要集中在奇幻/RPG情境。
- 作為LoRA微調模型,繼承了基礎Qwen3 - 4B模型的侷限性。
相關項目
如果你喜歡這個模型,可以查看以下相關項目:
致謝
特別感謝:
- Qwen團隊提供了出色的基礎模型。
- PJMixers - Dev提供了高質量的數據集。
- Unsloth團隊讓高效微調變得可行。
- HuggingFace社區的持續支持。
反饋與聯繫
我很想了解這個模型在你的項目中的使用情況!歡迎:
- 在HuggingFace倉庫中提出問題。
- 在HuggingFace上與我聯繫 @chun121。
- 分享你使用此模型創建的角色示例。
🔧 技術細節
屬性 | 詳情 |
---|---|
基礎模型 | Qwen3-4B |
架構 | 基於Transformer的大語言模型,採用LoRA適配 |
參數數量 | 40億(基礎模型)+ LoRA參數 |
量化選項 | 4位(bnb),GGUF格式(Q8_0、F16、Q4_K_M) |
訓練框架 | Unsloth & TRL |
上下文長度 | 512個標記 |
開發者 | Chun |
許可證 | Apache 2.0 |
這個LoRA模型是在免費的Google Colab T4 GPU上使用高效量化技術進行訓練的,以充分利用有限的資源:
- 數據集:PJMixers-Dev/Gryphe-Aesir-RPG-Charcards-Opus-Mixed-split
- LoRA配置:
- 秩:16
- 阿爾法:32
- 目標模塊:針對角色對話生成進行了優化
- 訓練超參數:
- 批量大小:8
- 梯度累積步數:4
- 學習率:使用餘弦調度器,學習率為1e - 4
- 最大步數:200
- 精度:FP16/BF16(自動檢測)
- 打包:啟用以實現高效訓練
- QLoRA:通過bitsandbytes進行4位量化
Gryphe-Aesir-RPG-Charcards-Opus-Mixed-split數據集是一個豐富的角色交互集合,具有以下特點:
- 不同類型的多樣化角色原型。
- 保持角色一致性的多輪對話。
- 多樣的情感上下文和場景。
- 豐富的描述性語言和以角色為驅動的回覆。
這個精心策劃的數據集有助於模型理解角色聲音的細微差別,在生成引人入勝的回覆時保持一致的個性。
📄 許可證
本模型使用的許可證為Apache 2.0。
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98