Darksapling V1.1 Ultra Quality 7B GGUF
TeeZee/DarkSapling-7B-v1.1を基に全面リメイクした32kコンテキスト大規模言語モデルで、命令追従、推論深度、感情表現において優れた性能を発揮
ダウンロード数 433
リリース時間 : 6/3/2024
モデル概要
32ビットHDアップグレードと量子化最適化を施したクリエイティブライティングとロールプレイ専用の大規模言語モデル。長文コンテキスト理解をサポートし、プロンプトの必要性を低減
モデル特徴
32k長文コンテキストサポート
コンテキストウィンドウを32kトークンに拡張し、長文の一貫性を大幅に向上
量子化最適化技術
Q4KM量子化レベルで240ポイントの性能向上を実現し、低量子化レベルで高量子化レベルの性能を達成
創造的表現強化
感情表現、詳細描写、ロールプレイにおいて顕著な最適化を実現
プロンプト効率向上
プロンプトの必要性を低減し、出力コンテンツのためのコンテキストスペースを解放
モデル能力
クリエイティブライティング
ストーリー生成
ロールプレイ対話
長文一貫性生成
感情豊かなテキスト出力
使用事例
クリエイティブライティング
小説創作
複雑なプロットとキャラクターアークを備えた完全なストーリーを生成
感情豊かで細部まで精巧な文学作品を産出
インタラクティブエンターテインメント
ロールプレイゲーム
AIキャラクターとして長時間にわたる状況維持型の対話を実現
32kトークンのコンテキストメモリを保持したキャラクター一貫性
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98