P

Pythia 2.8b

EleutherAIによって開発
Pythia-28億はEleutherAIが開発したスケーラブルな言語モデルスイートの一員で、大規模言語モデルの解釈可能性研究を促進するために設計されています。このモデルはTransformerアーキテクチャに基づいており、The Pileデータセットでトレーニングされ、28億のパラメータを持っています。
ダウンロード数 40.38k
リリース時間 : 2/13/2023

モデル概要

Pythia-28億はTransformerアーキテクチャに基づく因果言語モデルで、Pythiaスケーラブルモデルスイートの一部です。このスイートは科学研究のための制御環境を提供することを目的としており、特に大規模言語モデルの動作、機能、限界の研究に焦点を当てています。

モデル特徴

科学研究のための制御環境
大規模言語モデルの解釈可能性研究を促進するために設計されており、標準化されたトレーニングプロセスとチェックポイントを提供します
完全なトレーニングチェックポイント
初期step0、10の対数間隔チェックポイント、143の均等間隔チェックポイントを含む154の中間チェックポイントを提供します
標準化されたトレーニングデータ
すべてのPythiaモデルは完全に同じトレーニングデータと順序でトレーニングされており、比較研究が容易です

モデル能力

英語テキスト生成
言語モデリング
テキスト補完

使用事例

科学研究
言語モデルの動作研究
大規模言語モデルの異なるトレーニング段階における進化プロセスを研究します
モデルの解釈可能性分析
モデルの内部動作メカニズムと意思決定プロセスを分析します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase