P

Pile T5 Base

EleutherAIによって開発
Pile-T5基本版はT5xライブラリを使用し、The Pileデータセットで訓練されたエンコーダ-デコーダモデルで、MLM目標で200万ステップ、約2兆トークン訓練されています。
ダウンロード数 50
リリース時間 : 1/17/2024

モデル概要

Pile-T5は主に研究用途を目的としており、学習された英語の内部表現は下流タスクの特徴抽出に使用できます。Transformersライブラリと互換性があり、微調整と展開をサポートします。

モデル特徴

大規模事前学習
825GBのThe Pileデータセットで訓練され、22種類の英語テキストソースをカバー
T5xアーキテクチャ最適化
T5xスケーラブルモデルアーキテクチャを採用し、UMT5を参考にLlamaTokenizerを使用
研究指向設計
テキスト表現能力の抽出に焦点を当て、直接展開ではなく下流タスクの微調整に適しています

モデル能力

テキスト生成
マスク言語モデリング
テキスト特徴抽出

使用事例

学術研究
言語モデル研究
大規模事前学習モデルの行動と表現学習を研究するために使用
下流タスクベンチマークテスト
SuperGLUEなどのベンチマークで基本モデルとして微調整評価
性能指標は公式ブログを参照
産業応用
カスタマイズNLPソリューション
Apache 2.0ライセンスに基づき、ドメイン適応微調整を実施
リスクとバイアスは自己評価が必要
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase