P

Pythia 410m

EleutherAIによって開発
PythiaはEleutherAIが開発した一連の因果言語モデルで、説明可能性研究のために設計されており、7000万から120億パラメータまでの8つのサイズを含み、154のトレーニングチェックポイントを提供します
ダウンロード数 83.28k
リリース時間 : 2/13/2023

モデル概要

Transformerベースの英語言語モデルで、GPT-NeoXアーキテクチャを採用し、Pileデータセットでトレーニングされ、主に大規模言語モデルの動作と機能の研究に使用されます

モデル特徴

完全なトレーニングチェックポイント
154のトレーニング中間チェックポイントを提供し、モデルの進化過程の研究を容易にします
科学的実験設計
すべてのサイズのモデルが同じトレーニングデータと順序を使用し、実験の比較可能性を確保します
性能ベンチマーク
同規模のモデル(OPT、GPT-Neoなど)と同等またはそれ以上の性能を達成します
重複除去比較
各サイズに対して、元のデータとグローバルな重複除去データでトレーニングされた2つのバージョンを提供します

モデル能力

英語テキスト生成
言語モデル動作研究
モデル説明可能性分析

使用事例

学術研究
言語モデル動作分析
異なるトレーニング段階でのモデルのパラメータ変化パターンを研究します
154のチェックポイントを通じてモデルの能力発展を追跡可能
重複除去データ影響研究
元のデータと重複除去データでトレーニングされたモデルの性能差を比較します
技術検証
中規模モデルベンチマークテスト
4億パラメータレベルのリファレンスモデルとして技術比較を行います
同類のOPT-350Mモデルよりも優れた性能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase