MN Slush
Slushは高LoRAドロップアウト率トレーニングを採用した二段階モデルで、創造力とロールプレイ能力の向上に焦点を当てています
ダウンロード数 59
リリース時間 : 11/20/2024
モデル概要
Slushは特別なトレーニングを施した大規模言語モデルで、二段階トレーニング手法を採用しています。最初の段階では基礎モデルの事前学習を継続し創造力とライティング能力を向上させ、第二段階ではロールプレイ能力を強化するためにファインチューニングを行います。このモデルは全年齢向けではなく、特にロールプレイシナリオに適しています。
モデル特徴
二段階トレーニング
事前学習継続とファインチューニングの二段階を採用し、それぞれ創造力とロールプレイ能力を向上させます
高LoRAドロップアウト率
トレーニングで0.5のLoRAドロップアウト率を採用し、最新の研究成果に基づいてモデル性能を最適化します
長文コンテキストサポート
16384トークンの長文コンテキスト処理能力をサポートします
LoRA+技術
LoRA+トレーニング手法を採用し、学習率比率15でトレーニング効果を最適化します
モデル能力
クリエイティブライティング
ロールプレイ対話
長文生成
指示追従
使用事例
エンターテインメント
ロールプレイゲーム
ゲーム内のキャラクターとしてユーザーと没入型のインタラクションを行います
高品質なロールプレイ体験を提供します
クリエイティブライティング支援
ユーザーがクリエイティブなストーリーや小説コンテンツを生成するのを支援します
創造性豊かなテキスト出力を生成します
対話システム
パーソナライズドチャットボット
特定の性格特性を持つチャットボットを構築します
個性的で一貫性のある対話体験を提供します
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98