Kunoichi 7B
Kunoichi-7Bは汎用性とロールプレイ能力を兼ね備えた7Bパラメータの大規模言語モデルで、複数のベンチマークテストで優れた性能を発揮します。
ダウンロード数 196
リリース時間 : 1/4/2024
モデル概要
このモデルはSilicon-Maid-7Bと未公開モデルNinja-7BのSLERP融合産物であり、ロールプレイの利点を保持しながら知能レベルを大幅に向上させ、8kのコンテキストウィンドウをサポートし16kまで拡張可能です。
モデル特徴
高性能ベンチマーク結果
MT Bench、EQ BenchなどChatBot Arena Eloと高い相関性のあるベンチマークテストで同クラスの7Bモデルを凌駕
ロールプレイ能力
前世代モデルのSillyTavernロールカードへの正確な遵守能力を継承
長文コンテキストサポート
ネイティブで8kコンテキストウィンドウをサポート、NTK RoPE alpha設定により実験的に16kまで拡張可能
モデル融合技術
SLERP融合技術を採用しSilicon-Maid-7BとNinja-7Bの利点を結合
モデル能力
汎用テキスト生成
ロールプレイ対話
長文理解
論理的推論
マルチターン対話
使用事例
対話システム
ロールプレイチャット
SillyTavernなどのプラットフォームで高品質なロールプレイインタラクションを実現
ロールカード設定を正確に遵守し一貫性を保持
インテリジェントアシスタント
汎用AIアシスタントとして日常的な質問処理
MT Benchで8.14スコアを獲得、GPT-3.5-Turboを上回る
教育研究
ベンチマークテスト研究
7Bパラメータ級モデルの性能限界評価に使用
AGIEval(44.99)、GPT4All(74.86)などのベンチマークで優れた成績
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98