Xlm Roberta Large Nli Multilingual 12character
これはGPT-4蒸留ベースの多言語判別器で、ロールプレイ対話におけるキャラクター応答とプリセット人格記述間の自然言語推論(NLI)関係を評価するために設計されています。
ダウンロード数 42
リリース時間 : 5/14/2024
モデル概要
このモデルはグローバルロールプレイ忠実度最適化フレームワークのコアコンポーネントで、ロールプレイ対話におけるキャラクター応答とプリセット人格記述間の論理的一貫性を定量化します。
モデル特徴
グローバルロールプレイ忠実度定量化
キャラクター応答とプリセット人格記述間の論理的一貫性を体系的に評価可能
多言語サポート
GPT-4蒸留ベースで、多言語処理能力を備えています
NLI関係判別
キャラクター応答と人格記述間の自然言語推論関係を分析するために特別に設計
モデル能力
ロールプレイ対話評価
自然言語推論
テキスト一貫性分析
使用事例
ロールプレイシステム
仮想キャラクター対話品質評価
AIキャラクターの応答がプリセット人格特性に適合しているか評価
定量化された忠実度スコアを提供
ロールプレイゲーム開発
NPC対話システムの人格一貫性を最適化
ゲームの没入感を向上
対話システム研究
人格一貫性研究
対話システムの人格維持能力を分析
客観的評価指標を提供
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98