Gpt2 650k Stable Diffusion Prompt Generator GGUF
GPT-2ベースのStable Diffusionプロンプト生成モデルで、アート創作関連のプロンプトテキスト生成に特化しています。
ダウンロード数 158
リリース時間 : 11/15/2024
モデル概要
このモデルはStable Diffusion画像生成システム向けに高品質なプロンプトを作成するために最適化されたGPT-2モデルです。650kのStable Diffusionプロンプトでトレーニングされており、詳細で創造性豊かなアート記述を生成できます。
モデル特徴
最適化されたプロンプト生成
Stable Diffusionシステム向けに特別に最適化され、より効果的なアート創作プロンプトを生成
複数の量子化バージョン
Q2_KからQ8_0まで12種類の異なる量子化レベルのモデルファイルを提供し、様々なハードウェア要件に対応
アート創作指向
アート創作コミュニティからのトレーニングデータを使用し、生成されるプロンプトはより芸術的で創造的
モデル能力
アートプロンプト生成
クリエイティブテキスト生成
画像記述拡張
使用事例
デジタルアート創作
都市景観プロンプト生成
都市景観類の画像向けに詳細なStable Diffusionプロンプトを生成
例:'東京の都市景観、夕焼け、ネオンライト、サイバーパンクスタイル'など
キャラクターデザインプロンプト
キャラクターデザイン向けに詳細な記述プロンプトを生成
例:'1人の少女、青い目、黒髪、ゴシックスタイルの服装'など
コンセプトアート創作
ファンタジー生物デザイン
ファンタジー生物の記述プロンプトを生成
例:'炎の魂を喰らう悪魔、赤い肌、鋭い角、燃えるような目'
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98