# ロールプレイングの最適化
MS3.1 24B Magnum Diamond GGUF
Apache-2.0
Mistralアーキテクチャに基づく24Bパラメータの大規模言語モデルで、ロールプレイングとクリエイティブライティングに最適化され、GGUF量子化形式を採用しています。
大規模言語モデル English
M
Doctor-Shotgun
162
3
Dansxpantheon RP Engine V1.2 24b Small Instruct Ties Merge
最適化されたロールプレイングとストーリー創作モデルで、EOSトークンの問題を修正し、冗長な出力を減らし、絵文字を使用できます。
大規模言語モデル
Transformers

D
h34v7
194
3
L3.3 GeneticLemonade Unleashed 70B
ジェネティックレモネード リリース版は、ロールプレイング(RP)とクリエイティブライティングに特化した70Bパラメータの大規模言語モデルで、複数の優れたモデルを融合することで、ライティングスタイル、創造性、知能レベルのバランスを実現しています。
大規模言語モデル
Transformers

L
zerofata
2,151
8
Stellar Odyssey 12b V0.0
これは複数の基礎モデルを統合して得られた新しいモデルで、ロールプレイングシーンに最適化されており、ChatML指令形式を採用しています。
大規模言語モデル
Transformers

S
LyraNovaHeart
126
13
L3 Dark Planet 8B V2 Eight Orbs Of Power GGUF
Apache-2.0
Llama3に基づく強力なテキスト生成モデルで、執筆やロールプレイングなどの活動に適しており、高い安定性と低い困惑度を持っています。
大規模言語モデル English
L
DavidAU
1,381
16
L3 Dark Planet 8B GGUF
Apache-2.0
クリエイティブライティングやロールプレイングなどのシナリオに特化した強力なテキスト生成モデルで、長文生成能力と低困惑度に優れています。
大規模言語モデル English
L
DavidAU
1,222
39
Flammen21 Mistral 7B
Apache-2.0
Mistral 7B大規模言語モデルをベースに、事前学習モデルを統合し、Date-DPO-v2データセットで微調整したもので、ロールプレイング、クリエイティブライティング、一般的な知的タスクに長けています。
大規模言語モデル
Transformers

F
flammenai
23
1
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98