Francois PE V2 Huali 12B
Dans-PE-12Bをベースに訓練された続編で、ライトノベル、書籍、ロールプレイログでファインチューニングされ、独特の簡潔で明快な書き方を形成。KTO技術を用いて一貫性と文章力を向上
Downloads 179
Release Time : 4/30/2025
Model Overview
このモデルは他のNeMo訓練とは完全に異なる執筆スタイル/文体を形成することを目的としており、特にクリエイティブライティングとロールプレイシナリオに適している
Model Features
KTO強化技術
KTO(Kahneman-Tversky Optimization)技術を採用し、テキストの一貫性と文章の質を向上
Dans個性エンジン精密調整
Dans-Personamaxxアーキテクチャに基づき個性的な微調整を行い、独特の執筆スタイルを形成
クリエイティブで清新な随筆スタイル
訓練データには多数のライトノベルと文学作品が含まれており、文学的で創造性のある出力が可能
Model Capabilities
ロールプレイ対話生成
クリエイティブストーリー作成
文学的なテキスト生成
マルチターン対話維持
スタイリッシュなテキスト出力
Use Cases
クリエイティブライティング
ライトノベル創作
日本のライトノベルスタイルのクリエイティブストーリーを生成
出力スタイルが清新で明快、ライトノベル創作に適している
随筆作成
文学的な随筆段落を生成
詩的で文学的なテキスト
ロールプレイ
キャラクター対話生成
ロールプレイシナリオでキャラクターの性格に合った対話を生成
自然で流暢な対話、キャラクターの一貫性を維持可能
ストーリー進行
インタラクティブな物語の中で積極的にストーリーを展開
創造的に物語の展開が可能
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98