Z

Zephyr Orpo 141b A35b V0.1

Developed by HuggingFaceH4
Zephyr 141B-A39BはMixtral-8x22B-v0.1を微調整した大規模言語モデルで、ORPOアライメントアルゴリズムで訓練され、有用なアシスタントとなることを目指しています。
Downloads 3,382
Release Time : 4/10/2024

Model Overview

Zephyr 141B-A39Bはエキスパート混合(MoE)モデルで、総パラメータ数141B、活性化パラメータ数39Bです。チャット、コード、数学、推論データの混合で微調整されており、英語を中心としたインタラクションをサポートします。

Model Features

ORPOアライメントアルゴリズム
Odds Ratio Preference Optimization (ORPO)アルゴリズムを使用して訓練されており、DPOやPPOなどの方法よりも計算効率が高いです。
効率的な訓練
わずか7kのインスタンスを使用し、4ノード(各ノード8つのH100 GPU)で1.3時間の訓練で完了しました。
マルチターン対話能力
高品質なマルチターン合成選好データセットに基づいて訓練されており、優れた対話インタラクション能力を備えています。

Model Capabilities

テキスト生成
マルチターン対話
コード生成
数学的推論

Use Cases

対話アシスタント
インテリジェントカスタマーサポート
カスタマーサポートの提供や一般的な質問への回答に使用されます
複雑な問題を理解し、正確な回答を提供できます
教育支援
概念説明
複雑な概念を簡単な言葉で説明します
専門用語を子供が理解できる言葉に変換できます
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase