L3.3 70B Magnum Nexus
Llama-3.3-70B-Instructをベースに構築されたMagnum最終イテレーションバージョンで、複数のrsLoRA微調整バージョンを統合し、Claude 3 Sonnet/Opusシリーズモデルの文体と品質をシミュレートします。
大規模言語モデル
Transformers 英語

L
Doctor-Shotgun
292
7
Llama EveningMirai 3.3 70B
複数の70Bパラメータ規模モデルを融合した事前学習言語モデルで、『忘却安全詞』をベースモデルとしており、奔放なスタイルと小説/ストーリー執筆傾向を持っています。
大規模言語モデル
Transformers

L
KaraKaraWitch
59
2
Archaeo 32B KTO
Archaeo-32Bを基に強化学習でトレーニングされた融合モデルで、ロールプレイとクリエイティブライティングに最適化
大規模言語モデル
Transformers その他

A
Delta-Vector
25
1
Qwen3 32B 128k NEO Imatrix Max GGUF
Apache-2.0
これはQwen3-32BモデルのNEO Imatrix量子化バージョンで、BF16フォーマットを使用して出力テンソルを最大化し、推論/生成能力を向上させ、128kのコンテキスト長をサポートします。
大規模言語モデル
Q
DavidAU
1,437
2
Francois PE V2 Huali 12B
Dans-PE-12Bをベースに訓練された続編で、ライトノベル、書籍、ロールプレイログでファインチューニングされ、独特の簡潔で明快な書き方を形成。KTO技術を用いて一貫性と文章力を向上
大規模言語モデル
Transformers

F
Delta-Vector
179
12
Qwen3 4B GGUF
Qwen3-4BはQwenが開発した大規模言語モデルで、131,072トークンのコンテキスト長をサポートし、クリエイティブライティング、ロールプレイ、マルチターン会話に優れています。
大規模言語モデル
Q
lmstudio-community
26.16k
8
Darksapling V1 Ultra Quality 7B GGUF
Apache-2.0
ダークサプリングV1 7Bモデルを基に全面的に再融合・再構築した32kコンテキスト大規模言語モデルで、量子化レベルの最適化と性能向上が顕著
大規模言語モデル 英語
D
DavidAU
210
2
Godslayer 12B ABYSS
GodSlayer-12B-ABYSSは、mergekitを使用して複数の事前学習済み言語モデルを統合した12Bパラメータのモデルです。安定性と一貫性を維持しながら、ポジティブバイアスを減らし、リアリズムと多様な応答能力を向上させることを目的としています。
大規模言語モデル
Transformers

G
redrix
78
12
Psyonic Cetacean Ultra Quality 20b GGUF Imat Plus2
Apache-2.0
32ビット浮動小数点アップグレード版大規模言語モデル、全コンポーネントFP32リメイクによりテキスト生成品質と量子化性能が大幅に向上
大規模言語モデル 英語
P
DavidAU
3,536
7
Zhi Writing Dsr1 14b Gptq Int4
Apache-2.0
DeepSeek-R1-Distill-Qwen-14Bを微調整した創作強化モデルで、クリエイティブライティング能力が大幅に向上
大規模言語モデル
Transformers 複数言語対応

Z
Zhihu-ai
160
10
Zhi Writing Dsr1 14b
Apache-2.0
DeepSeek-R1-Distill-Qwen-14Bを微調整したクリエイティブライティング強化モデルで、創作表現が大幅に向上
大規模言語モデル
Transformers 複数言語対応

Z
Zhihu-ai
133
16
Archaeo 32B
ロールプレイとクリエイティブライティングのために特別に設計された32Bパラメータの大規模言語モデルで、デュアルモデル融合技術を実現
大規模言語モデル
Transformers

A
Delta-Vector
481
3
Mistral Small 3.1 24B Instruct 2503 MAX NEO Imatrix GGUF
Apache-2.0
Mistralaiが提供する24Bパラメータの命令微調整モデルで、128kのコンテキスト長と多言語処理をサポートし、Neo Imatrix技術とMAX量子化スキームにより性能を向上
大規模言語モデル 複数言語対応
M
DavidAU
38.29k
31
Gemma 3 4b It MAX NEO Imatrix GGUF
Apache-2.0
GoogleのGemma-3モデルを基にした究極の量子化バージョンで、NEO Imatrix技術により性能が強化され、128kのコンテキスト長をサポートし、全シナリオタスクに適しています
大規模言語モデル
G
DavidAU
2,558
7
Qwq 32B Snowdrop V0
Qwen2.5-32Bシリーズモデルを統合・最適化した高性能言語モデルで、ロールプレイとクリエイティブライティングに優れる
大規模言語モデル
Transformers

Q
trashpanda-org
678
70
Archaeo 12B GGUF
Archaeo-12Bはロールプレイとクリエイティブライティング専用に設計された12Bパラメータの大規模言語モデルで、Rei-12BとFrancois-Huali-12Bモデルを統合して作成されました
大規模言語モデル
A
Delta-Vector
125
12
Archaeo 12B
ロールプレイとクリエイティブライティングのために設計された融合モデルで、Rei-12BとFrancois-Huali-12BをSlerpアルゴリズムで融合
大規模言語モデル
Transformers

A
Delta-Vector
168
12
Angelslayer 12B Unslop Mell RPMax DARKNESS V3
Apache-2.0
これはmergekitツールでマージされた12Bパラメータの言語モデルで、クリエイティブライティングとロールプレイタスクに特化しており、独特のナラティブスタイルを持っています。
大規模言語モデル
Transformers

A
redrix
46
11
Patricide 12B Unslop Mell V2
Apache-2.0
mergekitツールで統合された12Bパラメータの言語モデルで、UnslopNemo-12B-v4のGPT対策特性とMN-12B-Mag-Mell-R1の知的なパフォーマンスを融合し、クリエイティブライティングやロールプレイシナリオに適しています
大規模言語モデル
Transformers

P
redrix
468
26
Angelslayer 12B Unslop Mell RPMax DARKNESS
Apache-2.0
mergekitで統合された12Bパラメータの言語モデルで、ロールプレイとクリエイティブライティングに特化し、安定した長文コンテキスト処理能力と多様な文体表現を備えています。
大規模言語モデル
Transformers

A
redrix
104
14
Patricide 12B Unslop Mell
Apache-2.0
SLERP融合法に基づく12Bパラメータ言語モデルで、Mag-MellとUnslopNemoモデルの利点を統合し、クリエイティブライティングやロールプレイシナリオに適しています
大規模言語モデル
Transformers

P
redrix
1,311
16
MN Slush
Slushは高LoRAドロップアウト率トレーニングを採用した二段階モデルで、創造力とロールプレイ能力の向上に焦点を当てています
大規模言語モデル
Transformers

M
crestf411
59
27
EVA Qwen2.5 14B V0.2
Apache-2.0
ロールプレイ/ストーリーライティングに特化した専門モデルで、Qwen2.5-14Bをベースに全パラメータ微調整を行い、合成データと自然データを融合しています。
大規模言語モデル
Transformers

E
EVA-UNIT-01
287
24
EVA Qwen2.5 32B V0.2
Apache-2.0
ロールプレイング/ストーリーライティングに特化した専門モデルで、Qwen2.5-32Bをベースにフルパラメータ微調整を行い、合成データと自然データを融合しています。
大規模言語モデル
Transformers

E
EVA-UNIT-01
625
53
M Metaphors Of Madness 19.4B GGUF
Apache-2.0
Mistralアーキテクチャを基にしたクリエイティブライティングモデルで、誇張された文体と予測不可能な創造的な出力で知られ、散文、小説創作、ロールプレイに特化しています。
大規模言語モデル 英語
M
DavidAU
277
3
Nemomix Unleashed 12B
Apache-2.0
NemoMix-Unleashed-12BはMistralAIアーキテクチャを基にした12Bパラメータの言語モデルで、mergekitツールを使用して複数の優れたモデルを統合しており、特にロールプレイやストーリー創作に適しています。
大規模言語モデル
Transformers

N
MarinaraSpaghetti
1,677
206
L3 8B Stheno V3.3 32K
Llama-3-8Bを最適化した32K長文コンテキストモデル。PoSEトレーニングによりコンテキスト長を拡張し、ロールプレイとクリエイティブライティングタスクに特化
大規模言語モデル
Transformers 英語

L
Sao10K
541
62
Darksapling V1.1 Ultra Quality 7B GGUF
Apache-2.0
TeeZee/DarkSapling-7B-v1.1を基に全面リメイクした32kコンテキスト大規模言語モデルで、命令追従、推論深度、感情表現において優れた性能を発揮
大規模言語モデル 英語
D
DavidAU
433
3
Psyonic Cetacean Ultra Quality 20b GGUF Imatrix
Apache-2.0
32ビット浮動小数点精度を全面アップグレードした大規模言語モデル。FP32精度の再構築により、テキスト生成品質とコマンド追従能力が大幅に向上
大規模言語モデル 英語
P
DavidAU
550
9
Psyonic Cetacean Ultra Quality 20b GGUF
Apache-2.0
Psyonic-Cetacean-20Bを基にした32ビット浮動小数点精度の全面アップグレード版、精度損失を最小化することでモデル性能を大幅に向上
大規模言語モデル 英語
P
DavidAU
560
15
Merge Mayhem L3 V2.1
これはmergekitツールを使用してマージされた事前訓練済み言語モデルの集合で、Llama-3-8Bアーキテクチャと複数の派生モデルを統合したものです。
大規模言語モデル
Transformers

M
saishf
19
1
Starling Dolphin E26 7B
Apache-2.0
Starling-dolphin-E26-7Bは実験的言語モデルで、複数の高性能モデルを融合して構築され、命令追従やクリエイティブライティングを含む様々なタスクを広範に処理することを目的としています。
大規模言語モデル
Transformers

S
bunnycore
25
2
Midnight Miqu 70B V1.5 GPTQ32G
その他
DARE線形融合手法で統合された70Bパラメータの大規模言語モデル、ロールプレイとストーリー創作に最適化
大規模言語モデル
Transformers

M
Kotokin
175
4
Midnight Miqu 70B V1.5
その他
Midnight-Miqu-70B-v1.5は、ロールプレイとストーリー創作に特化した700億パラメータの大規模言語モデルで、sophosympatheiaとmigtisseraのモデルを統合して作成されました。
大規模言語モデル
Transformers

M
sophosympatheia
734
199
Llama2 13B Psyfighter2
Psyfighter2はKoboldAIコミュニティメンバーによって作成された融合モデルで、医学データを追加することでフィクション能力を強化していますが、実際の医療用途には適していません。
大規模言語モデル
Transformers

L
KoboldAI
111
33
Llama2 13B Tiefighter
タイファイターは2つの異なるLoRAを融合して実現したハイブリッドモデルで、クリエイティブ生成に優れ、ストーリー創作、キャラクター対話、アドベンチャーゲームなど多様な応用シーンをサポートします。
大規模言語モデル
Transformers

L
KoboldAI
392
90
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98