Francois PE V2 Huali 12B
Dans-PE-12Bをベースに訓練された続編で、ライトノベル、書籍、ロールプレイログでファインチューニングされ、独特の簡潔で明快な書き方を形成。KTO技術を用いて一貫性と文章力を向上
ダウンロード数 179
リリース時間 : 4/30/2025
モデル概要
このモデルは他のNeMo訓練とは完全に異なる執筆スタイル/文体を形成することを目的としており、特にクリエイティブライティングとロールプレイシナリオに適している
モデル特徴
KTO強化技術
KTO(Kahneman-Tversky Optimization)技術を採用し、テキストの一貫性と文章の質を向上
Dans個性エンジン精密調整
Dans-Personamaxxアーキテクチャに基づき個性的な微調整を行い、独特の執筆スタイルを形成
クリエイティブで清新な随筆スタイル
訓練データには多数のライトノベルと文学作品が含まれており、文学的で創造性のある出力が可能
モデル能力
ロールプレイ対話生成
クリエイティブストーリー作成
文学的なテキスト生成
マルチターン対話維持
スタイリッシュなテキスト出力
使用事例
クリエイティブライティング
ライトノベル創作
日本のライトノベルスタイルのクリエイティブストーリーを生成
出力スタイルが清新で明快、ライトノベル創作に適している
随筆作成
文学的な随筆段落を生成
詩的で文学的なテキスト
ロールプレイ
キャラクター対話生成
ロールプレイシナリオでキャラクターの性格に合った対話を生成
自然で流暢な対話、キャラクターの一貫性を維持可能
ストーリー進行
インタラクティブな物語の中で積極的にストーリーを展開
創造的に物語の展開が可能
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98