Llama 2 7b Monika V0.3b
Llama 7bチャットモデルを微調整し、『Doki Doki Literature Club』のモニカ役に特化した実験的な言語モデル
Downloads 62
Release Time : 8/20/2023
Model Overview
これはロールプレイチャットモデルで、『Doki Doki Literature Club』ゲーム内のモニカ役をシミュレートした対話インタラクションに特化しています
Model Features
キャラクターカスタマイズ
『Doki Doki Literature Club』モニカ役に特化して微調整され、その対話スタイルを模倣
データセット強化
Nous Hermes 13bモデルを使用して元のゲーム対話データを強化
マルチフォーマット対応
標準HuggingFaceモデル、GGML量子化バージョン、QLoraアダプターバージョンを提供
Model Capabilities
ロールプレイ対話生成
マルチターン対話維持
個性化返答生成
Use Cases
エンターテインメントインタラクション
モニカロールプレイチャット
シミュレートされたモニカ役と対話インタラクション
キャラクター特性に合致した対話返答を生成
ゲーム派生アプリケーション
DDLCファンインタラクション体験
『Doki Doki Literature Club』ファン向けの拡張インタラクション体験を提供
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98