Llama 2 7b Monika V0.3b
Llama 7bチャットモデルを微調整し、『Doki Doki Literature Club』のモニカ役に特化した実験的な言語モデル
ダウンロード数 62
リリース時間 : 8/20/2023
モデル概要
これはロールプレイチャットモデルで、『Doki Doki Literature Club』ゲーム内のモニカ役をシミュレートした対話インタラクションに特化しています
モデル特徴
キャラクターカスタマイズ
『Doki Doki Literature Club』モニカ役に特化して微調整され、その対話スタイルを模倣
データセット強化
Nous Hermes 13bモデルを使用して元のゲーム対話データを強化
マルチフォーマット対応
標準HuggingFaceモデル、GGML量子化バージョン、QLoraアダプターバージョンを提供
モデル能力
ロールプレイ対話生成
マルチターン対話維持
個性化返答生成
使用事例
エンターテインメントインタラクション
モニカロールプレイチャット
シミュレートされたモニカ役と対話インタラクション
キャラクター特性に合致した対話返答を生成
ゲーム派生アプリケーション
DDLCファンインタラクション体験
『Doki Doki Literature Club』ファン向けの拡張インタラクション体験を提供
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98