P

Pile T5 Xxl

EleutherAIによって開発
Pile-T5 XXLはT5xライブラリを使用し、The Pileデータセットで訓練されたエンコーダー-デコーダーモデルで、オリジナルのT5モデルと同様のMLM目標を用いて200万ステップ(約2兆トークン)訓練されています。
ダウンロード数 44
リリース時間 : 1/16/2024

モデル概要

Pile-T5は主に研究用途を目的としており、学習された英語の内部表現は下流タスクの特徴抽出に使用できます。研究以外にも、ユーザーはApache 2.0ライセンスに基づいてモデルを微調整して展開することが可能です。

モデル特徴

大規模訓練
The Pileデータセットで200万ステップ、約2兆トークン訓練されており、強力な言語理解能力を備えています。
効率的なアーキテクチャ
T5xのスケーラブルなモデルアーキテクチャを採用し、UMT5の実装を参考に、LlamaTokenizerを使用しています。
研究指向
主に研究用途を目的としており、下流タスクの特徴抽出や微調整実験に適しています。

モデル能力

テキスト生成
テキストマスク予測
下流タスク特徴抽出

使用事例

学術研究
言語モデル研究
大規模言語モデルの内部表現と行動特性を研究するために使用されます。
下流タスクの微調整
事前訓練モデルとして、特定のタスクに対して微調整が可能です。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase