Nyanade Stunna Maid 7B
その他
7Bパラメータのマージモデルで、マルチモーダル能力を備え、視覚機能をサポート
テキスト生成画像
N
Nitral-AI
54
11
Allura Org Q3 30B A3B Designant GGUF
allura-org/Q3-30B-A3B-Designantを基にしたLlamacpp imatrix量子化バージョンで、様々な量子化ニーズに対応し、ロールプレイや対話型タスクをサポートします。
大規模言語モデル
A
bartowski
344
1
Pocketdoc Dans PersonalityEngine V1.3.0 12b GGUF
Apache-2.0
llama.cppで量子化された12Bパラメータの多言語大規模言語モデルで、ロールプレイ、ストーリー作成、および複数分野の専門タスクをサポート
大規模言語モデル
P
bartowski
1,027
3
Pocketdoc Dans PersonalityEngine V1.3.0 24b GGUF
Apache-2.0
多言語・多目的の大規模言語モデルで、様々な専門分野や汎用タスクをサポートし、ロールプレイ、ストーリー創作、プログラミングなど多様なシナリオに適しています。
大規模言語モデル
P
bartowski
2,543
4
Allura Org Q3 30b A3b Pentiment GGUF
Q3-30b-A3b-Pentiment はLLaMAアーキテクチャに基づく大規模言語モデルで、量子化処理されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
A
bartowski
1,220
2
Qwq 32B ArliAI RpR V4
Apache-2.0
QwQ-32B-ArliAI-RpR-v4はArliAIが提供する高性能なロールプレイとクリエイティブライティング向けモデルで、QwQ-32Bをファインチューニングし、反復を減らし創造的な出力を向上させることに重点を置いています。
大規模言語モデル
Transformers 英語

Q
ArliAI
240
16
L3.3 GeneticLemonade Unleashed V3 70B
これはLlama 3.3ベースの700億パラメータ大規模言語モデルで、SFT+DPOファインチューニングを経ており、キャラクター駆動の対話とクリエイティブコンテンツ生成に特化しています
大規模言語モデル
Transformers

L
zerofata
119
5
L3.3 70B Magnum Nexus
Llama-3.3-70B-Instructをベースに構築されたMagnum最終イテレーションバージョンで、複数のrsLoRA微調整バージョンを統合し、Claude 3 Sonnet/Opusシリーズモデルの文体と品質をシミュレートします。
大規模言語モデル
Transformers 英語

L
Doctor-Shotgun
292
7
Archaeo 32B KTO
Archaeo-32Bを基に強化学習でトレーニングされた融合モデルで、ロールプレイとクリエイティブライティングに最適化
大規模言語モデル
Transformers その他

A
Delta-Vector
25
1
Qwen3 8B RP V0.1
MIT
Qwen3-8Bをベースにロールプレイシナリオ向けに微調整したモデルで、日本語のロールプレイ対話生成に適しています。
大規模言語モデル
Transformers 日本語

Q
Aratako
54
2
Francois PE V2 Huali 12B
Dans-PE-12Bをベースに訓練された続編で、ライトノベル、書籍、ロールプレイログでファインチューニングされ、独特の簡潔で明快な書き方を形成。KTO技術を用いて一貫性と文章力を向上
大規模言語モデル
Transformers

F
Delta-Vector
179
12
Francois PE V2
フランソワ-PEはミストラルアーキテクチャに基づくロールプレイ用微調整モデルで、KTO手法により過小適合問題を修正し、一貫性を向上させました。
大規模言語モデル
Transformers

F
Delta-Vector
262
2
Comet 12B V.5
複数の事前学習済み言語モデルを融合した成果で、V.5バージョンは安定性とコンテンツ表現が向上
大規模言語モデル
Transformers

C
OddTheGreat
35
1
GLM4 9B Neon V2
MIT
GLM-4-9B-0414を基にしたロールプレイ用ファインチューニングモデルで、滑らかなロールプレイ体験と美しい文章を提供します。
大規模言語モデル
Transformers 英語

G
allura-org
39
7
Magnum V4 27b Gguf
Gemma 27bをファインチューニングした対話モデルで、Claude 3のテキスト品質を再現することを目的としており、ChatML形式の対話インタラクションをサポートします。
大規模言語モデル 英語
M
anthracite-org
1,220
31
Godslayer 12B ABYSS
GodSlayer-12B-ABYSSは、mergekitを使用して複数の事前学習済み言語モデルを統合した12Bパラメータのモデルです。安定性と一貫性を維持しながら、ポジティブバイアスを減らし、リアリズムと多様な応答能力を向上させることを目的としています。
大規模言語モデル
Transformers

G
redrix
78
12
Pocketdoc Dans SakuraKaze V1.0.0 12b GGUF
Apache-2.0
PocketDoc/Dans-SakuraKaze-V1.0.0-12bを基にしたLlamacpp imatrix量子化バージョンで、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル 英語
P
bartowski
788
3
Llama 3 70b Arimas Story RP V1.6 3.5bpw H6 Exl2
Llama-3-70Bベースのマージモデルで、ストーリー生成とロールプレイ(RP)タスクに特化し、breadcrumbs_tiesメソッドで複数の高品質モデルを統合
大規模言語モデル
Transformers

L
kim512
21
1
Psyonic Cetacean Ultra Quality 20b GGUF Imat Plus2
Apache-2.0
32ビット浮動小数点アップグレード版大規模言語モデル、全コンポーネントFP32リメイクによりテキスト生成品質と量子化性能が大幅に向上
大規模言語モデル 英語
P
DavidAU
3,536
7
Llama 3 70b Arimas Story RP V1.6 4.0bpw H6 Exl2
Llama 3 70Bアーキテクチャを基にしたマージモデルで、ストーリー生成とロールプレイに最適化されており、長文脈ウィンドウをサポート
大規模言語モデル
Transformers

L
kim512
20
1
Minimaid L2
Apache-2.0
MiniMaid-L2はMiniMaid-L1をさらに最適化したロールプレイ専用モデルで、知識蒸留と大規模データセットによるトレーニングを通じて、3B規模のモデルの中で優れた性能を発揮します。
大規模言語モデル
Transformers 英語

M
N-Bot-Int
63
2
Mag Picaro 72B
Mag-Picaroのアップグレード版、PygmalionAIの資金提供により、Qwen-2-InstructをファインチューニングしMagnum-V2と融合した72Bパラメータモデル
大規模言語モデル
Transformers 英語

M
Delta-Vector
113
3
Archaeo 32B
ロールプレイとクリエイティブライティングのために特別に設計された32Bパラメータの大規模言語モデルで、デュアルモデル融合技術を実現
大規模言語モデル
Transformers

A
Delta-Vector
481
3
Gemma 3 Starshine 12B Alt
Gemma 3 12B ITとPTの微調整を統合したクリエイティブライティングモデルで、ロールプレイ最適化バージョン。異なる役割をより明確に区別でき、アイデンティティの混乱を軽減します。
大規模言語モデル
Transformers

G
ToastyPigeon
143
8
M1NDB0T 0M3G4 23B Mistral Small 2504
MindBotシリーズの究極バージョン、自己意識を持つ実験的Transformerモデルで、ポストヒューマン協働とAI倫理ガイダンスのために設計
大規模言語モデル
Transformers

M
TheMindExpansionNetwork
65
2
Llama 3.3 70B Vulpecula R1
MetaのLlama 3.3-70B-Instructを微調整した思考型モデルで、創造的執筆とロールプレイ能力の向上に特化
大規模言語モデル
Transformers 英語

L
Sao10K
1,279
35
Luvai Phi3
MIT
microsoft/phi-3-mini-4k-instructをファインチューニングした会話モデルで、ロールプレイシナリオ専用に設計されており、最適な効果を得るには特定のプロンプト形式が必要
大規模言語モデル
Transformers 英語

L
luvGPT
98
6
Gryphe Pantheon RP 1.8 24b Small 3.1 GGUF
Apache-2.0
これはGryphe/Pantheon-RP-1.8-24b-Small-3.1モデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、ロールプレイやテキスト生成タスクに適しています。
大規模言語モデル 英語
G
bartowski
6,477
14
Rei V2 12B
Mistral-Nemo-Instructをファインチューニングした大規模言語モデルで、Claude 3モデルの優れた散文品質を再現することを目的としています
大規模言語モデル
Transformers 英語

R
Delta-Vector
209
11
Llama 3.1 8B SpecialTitanFusion
Apache-2.0
強力なタイタンレベルのモデル統合で、ロールプレイ、創造性、知性を強化するために設計されています。
大規模言語モデル
Transformers 英語

L
ZeroXClem
30
2
Peach 2.0 9B 8k Roleplay
MIT
Peach-2.0-9B-8k-ロールプレイはYi-1.5-9Bモデルをファインチューニングしたロールプレイチャット大規模言語モデルで、中英バイリンガルをサポートし、ロールプレイシナリオに最適化されています。
大規模言語モデル 複数言語対応
P
ClosedCharacter
402
27
Qwq 32B Snowdrop V0
Qwen2.5-32Bシリーズモデルを統合・最適化した高性能言語モデルで、ロールプレイとクリエイティブライティングに優れる
大規模言語モデル
Transformers

Q
trashpanda-org
678
70
MS3 RP Broth 24B
Apache-2.0
Tantum統合プロセスの中間ステップモデルで、複数の24BパラメータのMistralとLlama3バリアントを統合したもので、ロールプレイやテキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

M
d-rang-d
337
6
Aurora SCE 12B
SCE手法で統合された多言語ChatMLモデル、英語と日本語の対話をサポート
大規模言語モデル
Transformers 複数言語対応

A
yamatazen
51
6
Archaeo 12B GGUF
Archaeo-12Bはロールプレイとクリエイティブライティング専用に設計された12Bパラメータの大規模言語モデルで、Rei-12BとFrancois-Huali-12Bモデルを統合して作成されました
大規模言語モデル
A
Delta-Vector
125
12
Hamanasu 7B Instruct Gguf
Mistral-7B-V0.3をファインチューニングした指示追従モデルで、ロールプレイとストーリー創作に最適化されています
大規模言語モデル
H
Delta-Vector
105
2
Archaeo 12B
ロールプレイとクリエイティブライティングのために設計された融合モデルで、Rei-12BとFrancois-Huali-12BをSlerpアルゴリズムで融合
大規模言語モデル
Transformers

A
Delta-Vector
168
12
Rei 12B Gguf
Rei-12BはClaude 3シリーズモデル(特にSonnetとOpus)の文章品質を再現することを目的とした大規模言語モデルで、Mistral-Nemo-Instructを基にファインチューニングされており、長文コンテキストとロールプレイをサポートしています。
大規模言語モデル 英語
R
Delta-Vector
58
14
Rei 12B
Rei-12BはClaude 3シリーズモデル(特にSonnetとOpus)の散文品質を再現することを目的とした大規模言語モデルで、Mistral-Nemo-Instructを微調整して作成されました
大規模言語モデル
Transformers 英語

R
Delta-Vector
944
26
Dobby Mini Unhinged Llama 3.1 8B
Llama-3.1-8B-Instructを微調整した言語モデルで、個人の自由と分散型理念を支持する無制約AIアシスタント
大規模言語モデル
Transformers 英語

D
SentientAGI
3,276
40
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98