Flammen21 Mistral 7B
Mistral 7B大規模言語モデルをベースに、事前学習モデルを統合し、Date-DPO-v2データセットで微調整したもので、ロールプレイング、クリエイティブライティング、一般的な知的タスクに長けています。
ダウンロード数 23
リリース時間 : 4/22/2024
モデル概要
Flammen21-mistral-7BはMistral 7Bアーキテクチャに基づく大規模言語モデルで、直接嗜好最適化(DPO)による微調整を行い、ロールプレイング、クリエイティブライティング、一般的な知的タスクの性能向上に特化しています。
モデル特徴
直接嗜好最適化微調整
DPO手法を用いてDate-DPO-v2データセットで微調整を行い、特定タスクにおけるモデルの性能を向上させました。
LoRA効率的微調整
低ランク適応(LoRA)技術を採用し、モデルの性能を維持しながら学習リソースの必要量を大幅に削減します。
長文脈処理
最大4096トークンの文脈長をサポートし、長文処理タスクに適しています。
モデル能力
ロールプレイング
クリエイティブライティング
テキスト生成
対話システム
コンテンツ作成
使用事例
エンターテインメント
ロールプレイングゲーム
ゲーム内のAIキャラクターとして自然な対話を行います。
没入感のあるロールプレイング体験を提供します。
クリエイティブライティングアシスタント
作家がクリエイティブなコンテンツを生成したり、執筆障害を克服したりするのを支援します。
創作意欲をかき立て、執筆効率を向上させます。
教育
言語学習パートナー
言語練習の対話パートナーとして機能します。
自然な言語交流環境を提供します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98