Qwq 32B ArliAI RpR V4 GGUF
Apache-2.0
Qwen/QwQ-32Bをベースとしたテキスト生成モデルで、ロールプレイやクリエイティブライティングタスクに特化し、超低ビット量子化と長い会話処理をサポートします。
大規模言語モデル
Transformers 英語

Q
Mungert
523
2
Qwen3 4B Mishima Imatrix GGUF
Apache-2.0
Qwen3-4BベースのMishima Imatrix量子化バージョン、特定データセットで散文スタイル生成能力を強化
大規模言語モデル
Q
DavidAU
105
2
Qwen3 32B GGUF
Apache-2.0
Qwen3-32BはQwenチームによって開発された大規模言語モデルで、131,072トークンのコンテキスト長をサポートし、強力な数学、プログラミング、常識推論能力を備えています。
大規模言語モデル
Q
lmstudio-community
56.66k
7
Qwen3 1.7B GGUF
Qwen3-1.7BはQwenが開発した17億パラメータ規模の大規模言語モデルで、32kトークンの超長文コンテキストをサポートし、クリエイティブライティング、ロールプレイ、マルチターン対話に優れています。
大規模言語モデル
Q
lmstudio-community
13.32k
3
Qwen3 14B GGUF
Qwen3-14BはQwenによって開発された大規模言語モデルで、複数の言語と方言をサポートし、クリエイティブライティング、ロールプレイ、マルチターン対話に優れています。
大規模言語モデル
Q
lmstudio-community
56.39k
9
Synthia S1 27b Bnb 4bit
Synthia-S1-27bはTesslate AIによって開発された高度な推論AIモデルで、論理推論、コーディング、ロールプレイングタスクに特化しています。
テキスト生成画像
Transformers

S
GusPuffy
858
1
Gemma 3 Glitter 27B
Gemma 3 27Bベースのクリエイティブライティングモデルで、27B ITと27B PTを50%ずつ混合。自然で流暢なテキスト表現に優れる
大規模言語モデル
Transformers

G
allura-org
112
4
Llama 3.1 8B Athena Apollo Exp
Apache-2.0
MergeKitで複数のLlama-3.1アーキテクチャモデルを融合した強力なAIで、指示追従、ロールプレイ、クリエイティブライティングに優れています
大規模言語モデル
Transformers 英語

L
ZeroXClem
31
3
Gemma 3 Glitter 12B
Gemma 3 12B ITを基盤としたクリエイティブライティングモデル、ロールプレイングと長編創作能力を融合
大規模言語モデル
Transformers

G
allura-org
216
15
Glowing Forest 2 12B
グローイングフォレスト2代は、グローイングフォレスト1.5版とRei-12Bモデルを線形結合して作成された大規模言語モデルで、クリエイティブライティングとロールプレイタスクに特化しています。
大規模言語モデル
Transformers 英語

G
Ateron
23
2
Llama 3.x 70b Hexagon Purple V2
Hexagon Purple V2はSmartracksベースの3段階標準統合モデルで、Deepseek Distill R1、Nemotron、Tuluの能力を統合し、マルチモデル統合により性能を最適化しています。
大規模言語モデル
Transformers

L
Nexesenex
417
2
Qwen2.5 QwQ 37B Eureka Triple Cubed
Apache-2.0
QwQ-32Bの強化版で、'立方'および'三重立方'手法により推論と出力能力を向上させ、128kのコンテキストをサポートします。
大規模言語モデル
Transformers その他

Q
DavidAU
210
5
Writing Model Qwen 7B
Apache-2.0
Qwen2.5-7B-Instructを微調整したライティング評価専用モデル、12K規模のSFTデータセットで訓練
大規模言語モデル
Transformers

W
AQuarterMile
72
3
MN Violet Lotus 12B
MN-Violet-Lotus-12Bは、複数の高品質モデルを統合した12Bパラメータの大規模言語モデルで、ロールプレイとクリエイティブライティングに特化しており、優れたEQパフォーマンスと幅広いキャラクター適応能力を備えています。
大規模言語モデル
Transformers 英語

M
FallenMerick
247
33
Gemma 2 Ataraxy V4d 9B
Ataraxyシリーズで最も包括的なオールラウンダーで、主にクリエイティブライティング能力を向上させ、汎用シナリオでも優れたパフォーマンスを発揮します
大規模言語モデル
Transformers 英語

G
lemon07r
236
16
Meta Llama 3 120B Instruct
その他
MergeKitツールを使用してMeta-Llama-3-70B-Instructを自己融合して作成した120Bパラメータの大規模言語モデルで、クリエイティブライティングタスクに優れています
大規模言語モデル
Transformers

M
mlabonne
17
200
Panda 7B V0.1
Apache-2.0
Panda-7B-v0.1はMistral-7B-Instruct-v0.2を微調整したクリエイティブライティングモデルで、詳細で創造的かつ論理的なナラティブテキストの生成に特化しています。
大規模言語モデル
Transformers

P
NeuralNovel
30
15
Bagel 34b V0.2
Apache-2.0
yi-34b-200kを基にした実験的ファインチューニングモデルで、クリエイティブライティングやロールプレイなどのタスクに適しています。DPO段階はまだ適用されていません。
大規模言語モデル
Transformers

B
jondurbin
265
41
Lzlv 70b Fp16 Hf
複数のLLaMA2 70Bファインチューニングモデルを統合したロールプレイとクリエイティブワーク専用モデルで、Nous-Hermes-Llama2-70b、Xwin-LM-7B-V0.1、Mythospice-70bの特徴を融合
大規模言語モデル
Transformers

L
lizpreciatior
144
75
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98