Z

Zephyr Orpo 141b A35b V0.1

HuggingFaceH4によって開発
Zephyr 141B-A39BはMixtral-8x22B-v0.1を微調整した大規模言語モデルで、ORPOアライメントアルゴリズムで訓練され、有用なアシスタントとなることを目指しています。
ダウンロード数 3,382
リリース時間 : 4/10/2024

モデル概要

Zephyr 141B-A39Bはエキスパート混合(MoE)モデルで、総パラメータ数141B、活性化パラメータ数39Bです。チャット、コード、数学、推論データの混合で微調整されており、英語を中心としたインタラクションをサポートします。

モデル特徴

ORPOアライメントアルゴリズム
Odds Ratio Preference Optimization (ORPO)アルゴリズムを使用して訓練されており、DPOやPPOなどの方法よりも計算効率が高いです。
効率的な訓練
わずか7kのインスタンスを使用し、4ノード(各ノード8つのH100 GPU)で1.3時間の訓練で完了しました。
マルチターン対話能力
高品質なマルチターン合成選好データセットに基づいて訓練されており、優れた対話インタラクション能力を備えています。

モデル能力

テキスト生成
マルチターン対話
コード生成
数学的推論

使用事例

対話アシスタント
インテリジェントカスタマーサポート
カスタマーサポートの提供や一般的な質問への回答に使用されます
複雑な問題を理解し、正確な回答を提供できます
教育支援
概念説明
複雑な概念を簡単な言葉で説明します
専門用語を子供が理解できる言葉に変換できます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase