# ロールプレイ強化

The True Abomination 24B
これはロールプレイ能力に特化した24Bパラメータの言語モデルで、複数の先進的な統合技術を用いて優れたモデルを融合させたものです。従来の推論能力とSillyTavern互換性を特に最適化しています。
大規模言語モデル Transformers 複数言語対応
T
Casual-Autopsy
34
2
Qwen3 30B A1.5B 64K High Speed NEO Imatrix MAX Gguf
Qwen3-30B-A3Bエキスパート混合モデルの最適化バージョンで、活性化エキスパート数を減らすことで速度を向上させ、64kのコンテキスト長をサポートし、様々なテキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
Q
DavidAU
508
3
Community Request 04.20 12B
その他
これは複数の12Bパラメータ規模のモデルを統合して作成された大規模言語モデルで、テキスト生成と推論タスクに特化しています。
大規模言語モデル Transformers 英語
C
Nitral-AI
94
4
Glowing Forest 2 12B
グローイングフォレスト2代は、グローイングフォレスト1.5版とRei-12Bモデルを線形結合して作成された大規模言語モデルで、クリエイティブライティングとロールプレイタスクに特化しています。
大規模言語モデル Transformers 英語
G
Ateron
23
2
MN 2407 DSK QwQify V0.1 12B
Apache-2.0
これはPocketDoc/Dans-SakuraKaze-V1.0.0-12bをファインチューニングしたテストモデルで、既存モデルにQwQの思考パターンを与えることを目的としており、ロールプレイ/アドベンチャー/共同執筆シナリオに適しています。
大規模言語モデル Transformers
M
BeaverAI
734
5
Llama 3.1 8B AthenaSky MegaMix
Apache-2.0
MergeKitを使用して複数の高品質モデルを融合した8Bパラメータの大規模言語モデルで、推論、対話、創造的生成能力を最適化
大規模言語モデル Transformers 英語
L
ZeroXClem
105
2
Wayfarer Eris Noctis 12B
Nitral-AIとLatitudeGamesの2つの12Bパラメータモデルを統合したモデルで、slerp融合手法を採用し、強力なテキスト生成能力を有する
大規模言語モデル Transformers
W
Nitral-AI
194
16
L3.3 MS Nevoria 70b
その他
Llama 3.3アーキテクチャに基づく700億パラメータの大規模言語モデルで、複数の優れたモデルコンポーネントを統合することで、ストーリーテリング、シーン描写、散文の詳細描写能力が強化されています
大規模言語モデル Transformers
L
Steelskull
2,160
79
L3 MOE 8X8B Dark Planet 8D Mirrored Chaos 47B GGUF
LLama3ベースのエキスパート混合モデルで、8種類の8Bモデルバージョンを統合し47Bパラメータの強力なモデルを形成。クリエイティブライティング、小説創作、ロールプレイに優れ、生き生きとした多様な非AI的な出力が特徴。
大規模言語モデル 英語
L
DavidAU
568
12
CAI Supernova R2
このモデルはarcee-ai/Llama-3.1-SuperNova-LiteをCharacterAI-logsとOpenCAI-ShareGPTデータセットで微調整したバージョンで、長文コンテキスト処理をサポートしています。
大規模言語モデル Transformers
C
Edens-Gate
43
2
Hathor Stable V0.2 L3 8B
その他
HathorはLlama 3 8B命令モデルをベースに訓練された拡張版で、プライベートデータ、合成命令データ、ライト/クラシック小説データの混合、およびロールプレイ対話ペアを統合しています。
大規模言語モデル Transformers 英語
H
Nitral-AI
254
61
Llama3 70B Chinese Chat
Llama3-70B-Chinese-ChatはMeta-Llama-3-70B-Instructを基に開発された中英バイリンガル大規模言語モデルで、中英ユーザー向けに設計されており、ロールプレイ、ツール使用、数学計算などの多様な能力を備えています。
大規模言語モデル Transformers 複数言語対応
L
shenzhi-wang
58
102
Llama3 8B Chinese Chat GGUF F16
Meta-Llama-3-8B-Instructをファインチューニングした中英バイリンガル対話モデルで、中国語の回答品質を最適化し、ロールプレイと関数呼び出しをサポート
大規模言語モデル 複数言語対応
L
shenzhi-wang
199
28
Fimbulvetr Kuro Lotus 10.7B
これはSLERP球面線形補間融合法によって統合された2つの10.7Bパラメータモデルのハイブリッドモデルで、FimbulvetrとKuro-Lotusの利点を組み合わせ、テキスト生成タスクで優れた性能を発揮します。
大規模言語モデル Transformers
F
saishf
57
18
Panda 7B V0.1
Apache-2.0
Panda-7B-v0.1はMistral-7B-Instruct-v0.2を微調整したクリエイティブライティングモデルで、詳細で創造的かつ論理的なナラティブテキストの生成に特化しています。
大規模言語モデル Transformers
P
NeuralNovel
30
15
Bagel 34b V0.2
Apache-2.0
yi-34b-200kを基にした実験的ファインチューニングモデルで、クリエイティブライティングやロールプレイなどのタスクに適しています。DPO段階はまだ適用されていません。
大規模言語モデル Transformers
B
jondurbin
265
41
Openhermes Llama 3B
Apache-2.0
OpenLlama-3Bを微調整したインストラクション追従モデルで、ロールプレイ、インストラクション追従、コード生成に最適化されています
大規模言語モデル Transformers 英語
O
cfahlgren1
81
3
Psyfighter 13B
これはLlama-2-13Bをベースとしたハイブリッドモデルで、Tiefighter、MedLLaMA、limarp-v2など複数モデルの特徴を統合し、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
P
jebcarter
86
12
Lzlv 70b Fp16 Hf
複数のLLaMA2 70Bファインチューニングモデルを統合したロールプレイとクリエイティブワーク専用モデルで、Nous-Hermes-Llama2-70b、Xwin-LM-7B-V0.1、Mythospice-70bの特徴を融合
大規模言語モデル Transformers
L
lizpreciatior
144
75
Pygmalion 2 13B SuperCOT Weighed GGUF
これはPygmalion-2-13bとSuperCOTの重み付け融合実験モデルで、命令形式のインタラクションをサポートし、テキスト生成タスクに適しています。
大規模言語モデル 英語
P
TheBloke
1,468
9
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase