🚀 Qwen3-4B Roleplay LoRA
このモデルは、会話の中でキャラクターを生き生きと表現することができます。ゲームやストーリーテリングプラットフォーム、キャラクター駆動型のAI体験を作る際に役立ちます。
自然で魅力的な対話を通じて、デジタルコンパニオンに生命を吹き込みましょう
✨ 主な機能
皆さん、こんにちは!私はChun (@chun121) です。印象的なQwen3-4Bモデルをファインチューニングして、キャラクターベースの会話やロールプレイシナリオで優れた性能を発揮するようにしました。没入型のゲームを制作したり、インタラクティブなストーリーテリングプラットフォームを構築したり、キャラクター駆動型のAI体験を開発したりする場合、このモデルはキャラクターに個性、一貫性、そして深みを持たせて話させるのに役立ちます。
このLoRAアダプテーションは、ベースモデルの知性を維持しながら、以下の能力を強化しています。
- 一貫したキャラクターのペルソナを維持する
- キャラクターの特徴を反映した本物の対話を生成する
- 没入感のある物語的な応答を作成する
- 会話全体を通じてコンテキストを記憶する
🔧 技術詳細
項目 |
詳細 |
ベースモデル |
Qwen3-4B |
アーキテクチャ |
LoRAアダプテーションを持つTransformerベースのLLM |
パラメータ数 |
40億 (ベース) + LoRAパラメータ |
量子化オプション |
4-bit (bnb), GGUF形式 (Q8_0, F16, Q4_K_M) |
トレーニングフレームワーク |
Unsloth & TRL |
コンテキスト長 |
512トークン |
開発者 |
Chun |
ライセンス |
Apache 2.0 |
📚 トレーニング方法
このLoRAは、無料のGoogle Colab T4 GPUを使用し、限られたリソースを最大限に活用するために効率的な量子化技術を用いてトレーニングされました。
📚 データセットの詳細
Gryphe-Aesir-RPG-Charcards-Opus-Mixed-splitデータセットは、以下の特徴を持つキャラクターの対話の豊富なコレクションです。
- 様々なジャンルにまたがる多様なキャラクターアーキタイプ
- キャラクターの一貫性を維持した複数ターンの会話
- 様々な感情的なコンテキストとシナリオ
- 豊かな描写的な言語とキャラクター駆動型の応答
この精心に選りすぐられたデータセットは、モデルがキャラクターの声のニュアンスを理解し、魅力的な応答を生成しながら一貫した個性を維持するのに役立ちます。
💻 使用例
基本的な使用法
Hugging Face Transformers
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
tokenizer = AutoTokenizer.from_pretrained("chun121/qwen3-4b-roleplay-lora")
model = AutoModelForCausalLM.from_pretrained(
"chun121/qwen3-4b-roleplay-lora",
torch_dtype=torch.float16,
device_map="auto"
)
character_prompt = """
Character: Elara, an elven mage with centuries of knowledge but little patience for novices
Setting: The Grand Library of Mystral
Context: A young apprentice has asked for help with a difficult spell
User: Excuse me, I'm having trouble with the fire conjuration spell. Could you help me?
Elara:
"""
inputs = tokenizer(character_prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
inputs["input_ids"],
max_new_tokens=200,
temperature=0.7,
top_p=0.9,
do_sample=True
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
GGUFモデルの使用
llama.cppでGGUFエクスポートを使用する場合:
./llama -m chun121-qwen3-4b-roleplay-lora.Q4_K_M.gguf -p "Character: Elara, an elven mage..." -n 200
💡 使用提案
このモデルは、以下の場合に最適に機能します。
- キャラクターのコンテキストを提供する: キャラクターの性格、背景、および現在の状況の簡単な説明を含める
- シーンを設定する: 環境や状況に関するコンテキストを提供する
- チャット形式を使用する: 入力をユーザー/人間とキャラクターの会話として構造化する
- 温度を維持する: 0.7 - 0.8の値が、創造性と一貫性のバランスを良好に保ちます
⚠️ 制限事項
- 512トークンのコンテキストウィンドウに制限されています
- 非常に長い会話では、キャラクターの特徴を時々「忘れる」ことがあります
- トレーニングデータセットは主にファンタジー/RPGのコンテキストに焦点を当てています
- LoRAファインチューニングであるため、ベースのQwen3-4Bモデルの制限事項を引き継いでいます
📚 関連プロジェクト
このモデルが気に入ったら、以下の関連プロジェクトもチェックしてみてください。
🙏 謝辞
特別な感謝を以下の方々に送ります。
- 素晴らしいベースモデルを提供してくれたQwenチーム
- 高品質なデータセットを提供してくれたPJMixers-Dev
- 効率的なファインチューニングを可能にしてくれたUnslothチーム
- 継続的なサポートをしてくれたHuggingFaceコミュニティ
📬 フィードバックと連絡先
このモデルがあなたのプロジェクトでどのように機能するかを聞きたいです!自由に以下のことをしてください。
- HuggingFaceリポジトリで問題を開く
- HuggingFaceで私とつながる @chun121
- このモデルを使って作成したキャラクターの例を共有する
あなたのキャラクターが本当に生き生きと話せるように!
Created with ❤️ by Chun
📄 ライセンス
このプロジェクトはApache 2.0ライセンスの下で提供されています。