P

Pythia 2.8b

Developed by EleutherAI
Pythia-28億はEleutherAIが開発したスケーラブルな言語モデルスイートの一員で、大規模言語モデルの解釈可能性研究を促進するために設計されています。このモデルはTransformerアーキテクチャに基づいており、The Pileデータセットでトレーニングされ、28億のパラメータを持っています。
Downloads 40.38k
Release Time : 2/13/2023

Model Overview

Pythia-28億はTransformerアーキテクチャに基づく因果言語モデルで、Pythiaスケーラブルモデルスイートの一部です。このスイートは科学研究のための制御環境を提供することを目的としており、特に大規模言語モデルの動作、機能、限界の研究に焦点を当てています。

Model Features

科学研究のための制御環境
大規模言語モデルの解釈可能性研究を促進するために設計されており、標準化されたトレーニングプロセスとチェックポイントを提供します
完全なトレーニングチェックポイント
初期step0、10の対数間隔チェックポイント、143の均等間隔チェックポイントを含む154の中間チェックポイントを提供します
標準化されたトレーニングデータ
すべてのPythiaモデルは完全に同じトレーニングデータと順序でトレーニングされており、比較研究が容易です

Model Capabilities

英語テキスト生成
言語モデリング
テキスト補完

Use Cases

科学研究
言語モデルの動作研究
大規模言語モデルの異なるトレーニング段階における進化プロセスを研究します
モデルの解釈可能性分析
モデルの内部動作メカニズムと意思決定プロセスを分析します
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase