Mythomax L2 13B GGUF FP16
これはGrypheのMythoMax-L2-13BモデルのGGUF変換の浮動小数点16ビット版で、高いVRAM容量を持つGPUでの全品質のローカル推論用に設計されています。
ダウンロード数 380
リリース時間 : 5/3/2025
モデル概要
このモデルは全精度(浮動小数点16ビット)を保持しており、微調整命令タスク、ロールプレイングや創造的な文章作成、情感豊かな会話、および全コンテキスト出力実験に適しています。
モデル特徴
全精度保持
浮動小数点16ビット精度を採用し、高品質のローカル推論に適しています。
大きなコンテキストサポート
4096以上のトークンのコンテキスト長をサポートします。
高品質出力
特に情感豊かで創造性が必要な文章生成タスクに適しています。
モデル能力
文章生成
命令微調整
ロールプレイング
創造的な文章作成
情感豊かな会話
使用事例
創造的な文章作成
ロールプレイング
豊かな情感と個性を持つキャラクターの会話を生成します。
自然で流れるキャラクターのやり取りを生み出します。
物語作成
長編の物語や小説の作成を支援します。
首尾一貫した創造的な叙事内容を生成します。
対話システム
情感豊かな会話
情感と共感を持った会話交流を行います。
自然で情感的な共感を呼び起こす会話を生み出します。
実験研究
長いコンテキスト実験
長いコンテキスト環境下でのモデルの性能をテストします。
4096以上のトークンのコンテキストメモリをサポートします。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98