Qwenstoryteller GGUF
Qwenベースのビジュアルストーリーテリングモデルの量子化バージョンで、フレーム間の一貫性のあるストーリー生成と画像からテキストへの変換タスクに特化
ダウンロード数 195
リリース時間 : 5/13/2025
モデル概要
このモデルはQwenStorytellerの静的量子化バージョンで、ビジュアルストーリーテリング能力を最適化し、画像入力に基づいて一貫性のあるストーリーテキストを生成し、フレーム間の一貫性を維持します。
モデル特徴
フレーム間の一貫性
複数フレームの画像説明を生成する際に、ストーリーの一貫性と論理的一貫性を維持
チェーンオブシンキングサポート
チェーンオブシンキング推論をサポートし、より論理的なナラティブコンテンツを生成可能
マルチ量子化オプション
Q2_Kからf16までの12種類の量子化バージョンを提供し、さまざまなハードウェアと精度のニーズに対応
ビジュアルランゲージ理解
画像内容を理解し、表現力豊かなテキスト記述に変換可能
モデル能力
画像からテキスト生成
ビジュアルストーリーテリング
一貫性のあるストーリー創作
マルチモーダル理解
使用事例
コンテンツ創作
漫画スクリプト生成
漫画のコマ割り画像から自動的に一貫性のある台詞とナレーションを生成
キャラクターの性格とプロットの一貫性を維持したスクリプト
教育的ナラティブ
教育用イラストを子供向けの読みやすいストーリーテキストに変換
楽しみながら学べるストーリーコンテンツ
創作支援
映像分鏡記述
映像の分鏡図から詳細なシーン記述を生成
脚本創作に使用可能な詳細なシーン説明
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98