N

Noromaid 7B 0.4 DPO

NeverSleepによって開発
IkariDevとUndiが共同開発した7Bパラメータの大規模言語モデル、DPO最適化訓練を経た
ダウンロード数 137
リリース時間 : 1/11/2024

モデル概要

Llama2アーキテクチャを基盤とした大規模言語モデル、DPO(Direct Preference Optimization)による最適化訓練を経て、より人間的な会話能力と最適化された出力品質を備える

モデル特徴

DPO最適化訓練
Direct Preference Optimization手法を使用して最適化し、モデルの出力品質を向上
人間的な会話
no_robotsなどのデータセットで訓練され、より自然な人間の会話スタイルを備える
マルチデータセット融合
公開データセットとプライベートデータセットを組み合わせて訓練し、モデル性能を向上

モデル能力

テキスト生成
対話インタラクション
コンテンツ創作

使用事例

対話システム
インテリジェントアシスタント
チャットボットとして人間的な会話サービスを提供可能
より自然で人間の好みに合った返答を生成
コンテンツ創作
ストーリー生成
クリエイティブライティングやストーリーコンテンツの生成に使用
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase