F

Flammen21 Mistral 7B

flammenaiによって開発
Mistral 7B大規模言語モデルをベースに、事前学習モデルを統合し、Date-DPO-v2データセットで微調整したもので、ロールプレイング、クリエイティブライティング、一般的な知的タスクに長けています。
ダウンロード数 23
リリース時間 : 4/22/2024

モデル概要

Flammen21-mistral-7BはMistral 7Bアーキテクチャに基づく大規模言語モデルで、直接嗜好最適化(DPO)による微調整を行い、ロールプレイング、クリエイティブライティング、一般的な知的タスクの性能向上に特化しています。

モデル特徴

直接嗜好最適化微調整
DPO手法を用いてDate-DPO-v2データセットで微調整を行い、特定タスクにおけるモデルの性能を向上させました。
LoRA効率的微調整
低ランク適応(LoRA)技術を採用し、モデルの性能を維持しながら学習リソースの必要量を大幅に削減します。
長文脈処理
最大4096トークンの文脈長をサポートし、長文処理タスクに適しています。

モデル能力

ロールプレイング
クリエイティブライティング
テキスト生成
対話システム
コンテンツ作成

使用事例

エンターテインメント
ロールプレイングゲーム
ゲーム内のAIキャラクターとして自然な対話を行います。
没入感のあるロールプレイング体験を提供します。
クリエイティブライティングアシスタント
作家がクリエイティブなコンテンツを生成したり、執筆障害を克服したりするのを支援します。
創作意欲をかき立て、執筆効率を向上させます。
教育
言語学習パートナー
言語練習の対話パートナーとして機能します。
自然な言語交流環境を提供します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase