# 創造的テキスト生成

Qwen3 4B Q8 0 64k 128k 256k Context GGUF
Apache-2.0
Qwen 4Bモデルの3つの量子化バージョン(Q8_0)、それぞれ64K、128K、256Kのコンテキスト長をサポート、長文生成と深層思考タスクに最適化
大規模言語モデル
Q
DavidAU
401
2
Qwen3 4B NEO Imatrix Max GGUF
Apache-2.0
これはQwen3-4Bモデルを基にしたNEO Imatrix量子化バージョンで、BF16フォーマットのMAX出力テンソルを使用して推論と出力生成能力を向上させ、32kの文脈長をサポートします。
大規模言語モデル
Q
DavidAU
1,152
3
Violet Twilight V0.2 GGUF
Apache-2.0
Violet_Twilight-v0.2はAzure_Dusk-v0.2とCrimson_Dawn-v0.2のSLERP統合モデルで、多言語テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
V
Epiculous
96.97k
55
Fireblossom 32K 7B
Mistral 7B v0.1をベースに統合した7Bパラメータ言語モデル。タスク算術により複数の優れたファインチューニングモデルを統合し、32Kの文脈長をサポート。創造性と推論能力のバランスが取れている
大規模言語モデル Transformers
F
grimjim
21
3
Lemonaderp 4.5.3 GGUF
ロールプレイに特化した70億パラメータの大規模言語モデル、8192トークンの文脈長をサポート、創造性と陳腐な表現の削減を重視
大規模言語モデル 英語
L
KatyTheCutie
238
28
Loyal Toppy Bruins Maid 7B DARE GGUF Imatrix
70億パラメータのロールプレイ専用モデル、Starling-LMなどの優れたモデル特性を融合、生き生きとしたロールプレイと正確な指示追従に優れる
大規模言語モデル
L
Lewdiculous
218
15
Fimbulvetr Kuro Lotus 10.7B
これはSLERP球面線形補間融合法によって統合された2つの10.7Bパラメータモデルのハイブリッドモデルで、FimbulvetrとKuro-Lotusの利点を組み合わせ、テキスト生成タスクで優れた性能を発揮します。
大規模言語モデル Transformers
F
saishf
57
18
Llama 160M Chat V1
Apache-2.0
これは160MパラメータのLlamaチャットモデルで、JackFram/llama-160mを微調整したもので、テキスト生成タスクに特化しています。
大規模言語モデル Transformers 英語
L
Felladrin
586
19
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase