Storytime 13b
Llama 2アーキテクチャを基にした13Bパラメータの大規模言語モデルで、ストーリー創作とナラティブに特化し、一貫性があり創造性豊かなストーリーコンテンツの生成に優れています。
ダウンロード数 111
リリース時間 : 9/22/2023
モデル概要
複数の専用モデルとLORAモジュールを混合して最適化されており、特にストーリーテリングタスクの処理に優れ、Alpacaプロンプト形式に良好に反応します。
モデル特徴
マルチモデル混合最適化
SLERPアルゴリズムによりReMM-v2.2とLlama-2-13B-Storywriterモデルを混合し、専用LORAモジュールを組み合わせてストーリー生成能力を最適化
創造的なストーリーテリング
一貫性があり創造性豊かなストーリーコンテンツの生成に特に優れ、プロットとキャラクターの一貫性を維持
プロンプト応答最適化
Alpacaプロンプト形式に良好に反応し、ストーリー創作の指示を正確に理解して実行
モデル能力
クリエイティブライティング
ストーリー生成
プロット展開
キャラクター造形
テキスト一貫性維持
使用事例
クリエイティブライティング
ショートストーリー生成
ユーザーが提供したテーマや冒頭に基づいて、完全なショートストーリーを生成
一貫性があり創造性豊かなストーリーコンテンツを生成
キャラクター背景創作
ゲームや小説のための詳細なキャラクター背景ストーリーを創作
深みと一貫性のあるキャラクター背景を創造
教育エンターテインメント
子供向けストーリー創作
子供が読むのに適した簡単なストーリーを生成
特定の年齢層に適した楽しいストーリーを生成
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98