Distill Gpt2 Story Generator
D
Distill Gpt2 Story Generator
Developed by isarth
これはGPT2アーキテクチャに基づく蒸留モデルで、タイプ別のストーリー生成タスク用に訓練されており、パラメータ規模は8400万です。
Downloads 360
Release Time : 1/16/2023
Model Overview
このモデルはGPT2の軽量級バージョンで、一貫性がありスタイルが多様なストーリーテキストの生成に特化しており、創作支援ツールに適しています。
Model Features
軽量で効率的
知識蒸留技術を通じて元のモデルの核心的な能力を保持しつつ、パラメータ数を大幅に削減します。
ストーリー生成の最適化
ストーリー生成タスクに特化して訓練されており、より一貫性のある叙事構造を生成できます。
スタイルの多様性
さまざまなスタイルやタイプのストーリー内容の生成をサポートします(推測)。
Model Capabilities
一貫性のあるテキスト生成
複数段落のストーリー創作
スタイルの模倣(推測)
コンテキスト理解
Use Cases
創作活動
小説創作支援
作家にストーリーの展開や情節の提案を提供します。
設定された背景に合った一貫性のある段落を生成できます。
インタラクティブなストーリーアプリケーション
ユーザーの選択に基づく動的な叙事システムを構築します。
リアルタイムで分岐するストーリー内容を生成します(推測)。
教育
作文指導ツール
学生が叙事構造や創造的な表現を理解するのを助けます。
多様な作文の例を提供します(推測)。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98