Psyonic Cetacean Ultra Quality 20b GGUF Imat Plus2
32ビット浮動小数点アップグレード版大規模言語モデル、全コンポーネントFP32リメイクによりテキスト生成品質と量子化性能が大幅に向上
ダウンロード数 3,536
リリース時間 : 4/25/2025
モデル概要
超高品質リメイク版大規模言語モデル、クリエイティブライティング、ストーリー生成、ロールプレイシナリオに特化、数学的に厳密な精度維持手法で性能飛躍を実現
モデル特徴
全FP32精度リメイク
全てのコンポーネントと統合モデルを32ビット浮動小数点精度にアップグレード、累積精度損失を最小限に抑える
量子化性能ブレークスルー
Q6バージョン性能がオリジナルフル精度モデルを超越、Q4KMはオリジナルQ6品質レベルに接近
Imatrix Plus 2量子化
内部データセットとメインデータセットを融合した新型量子化技術を採用、困惑度低下幅が倍増
創発的新機能
コマンド追従能力が顕著に向上、テキスト表現力とディテール深度が全面的に向上
モデル能力
クリエイティブライティング
ストーリー生成
小説続き書き
ロールプレイ対話
コマンド追従
使用事例
クリエイティブライティング
SF小説創作
豊富なディテールを持つSFシーンとキャラクター設定を生成
出力テキストの表現力向上、ディテール深度増加
ストーリー続き書き
ユーザー提供の冒頭に基づき一貫性のあるストーリー展開を自動生成
プロットの一貫性向上、論理エラー減少
インタラクティブアプリケーション
ロールプレイチャット
Silly Tavern等のプラットフォームで高品質なキャラクターインタラクションを実現
会話の自然さ向上、キャラクター一貫性強化
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98