Z

Zephyr Orpo 141b A35b V0.1 GGUF

MaziyarPanahiによって開発
Mixtral-8x22B-v0.1をファインチューニングした1410億パラメータの混合エキスパートモデル(MoE)、活性化パラメータ350億、主に英語テキスト生成タスク用
ダウンロード数 10.04k
リリース時間 : 4/11/2024

モデル概要

これはORPOで最適化されたZephyrシリーズの大規模言語モデルで、混合エキスパートアーキテクチャを採用し、効率的なテキスト生成タスクに適しています

モデル特徴

効率的な混合エキスパートアーキテクチャ
8エキスパート混合設計を採用、総パラメータ1410億だが活性化は350億パラメータのみで、効率的な推論を実現
マルチレベル量子化サポート
2ビットから16ビットまでの多様な量子化レベルを提供、異なるハードウェア要件に対応
最適化された対話能力
高品質な合成データセットでファインチューニングされ、優れた対話インタラクション能力を備えている

モデル能力

テキスト生成
対話システム
命令追従
コンテンツ作成

使用事例

インテリジェントアシスタント
オンラインカスタマーサービスボット
ウェブサイトのカスタマーサービスアシスタントとして展開、よくある質問に対応
サンプルダイアログではスムーズなマルチターンインタラクション処理が可能
コンテンツ生成
ステップバイステップガイド生成
ユーザーリクエストに基づいて段階的な操作ガイドを生成
サンプルでは10ステップのサイト構築ガイドを正常に生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase