Noro Hermes 3x7B
Noro-Hermes-3x7Bは、LazyMergeKitツールを使用して構築された混合専門家モデル(MoE)で、3つの7BパラメータのMistralバリエーションモデルを融合し、インテリジェントアシスタント、クリエイティブなロールプレイ、一般的なタスク処理能力を備えています。
ダウンロード数 16
リリース時間 : 3/27/2024
モデル概要
このモデルは、Nous-Hermes-2-Mistral-7B-DPO、Noromaid-7B-0.4-DPO、Mistral-7B-Instruct-v0.2という3つの専門家モデルを融合することで、多機能処理能力を実現し、さまざまなシナリオのテキスト生成タスクに適しています。
モデル特徴
混合専門家アーキテクチャ
3つの専門分野の7Bパラメータモデルを統合し、ゲート機構を通じて入力に最適な専門家を動的に選択
多機能処理
インテリジェントなQ&A、クリエイティブライティング、一般的な命令追従能力を同時に備える
効率的な推論
Mistralアーキテクチャに基づいて最適化され、4-bit量子化推論をサポート
モデル能力
インテリジェントQ&A
クリエイティブライティング
ロールプレイ
命令追従
テキスト生成
使用事例
インテリジェントアシスタント
知識Q&A
ユーザーのさまざまな知識に関する質問に回答
オリジナルのNous-Hermesモデルに近い精度
クリエイティブライティング
ストーリー生成
プロンプトに基づいてクリエイティブなストーリーやキャラクターの対話を生成
Noromaidモデルの創造的特性を備える
一般的なタスク
命令実行
さまざまな日常タスクの命令を処理
Mistralベースモデルの堅牢性を維持
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98