T

T5 Xl Lm Adapt

googleによって開発
T5 1.1言語モデル適合版は、元のT5モデルを改良したバージョンで、GEGLU活性化関数を採用し、パラメータ共有を廃止し、言語モデリングタスクに特化して最適化されています。
ダウンロード数 1,111
リリース時間 : 3/2/2022

モデル概要

このモデルはT5アーキテクチャの改良版で、言語モデリングタスクに特化して適合されており、活性化関数と学習戦略を改良することでプロンプトチューニング能力を向上させています。

モデル特徴

GEGLU活性化関数
フィードフォワード隠れ層ではReLUの代わりにGEGLU活性化関数を採用し、モデルの表現能力を向上させます。
無Dropout事前学習
事前学習段階ではDropoutを無効にして品質を向上させ、微調整時には再度有効にする必要があります。
純粋なC4データセット学習
事前学習にはC4データセットのみを使用し、下流タスクのデータを混合せず、学習の一貫性を保ちます。
パラメータ解耦
埋め込み層と分類器層のパラメータ共有を廃止し、モデルの柔軟性を高めます。
二重目標事前学習
ノイズ除去と言語モデリングの両方の目標に基づいて事前学習を行います。

モデル能力

テキスト生成
テキスト理解
転移学習
プロンプトチューニング
ゼロショット学習

使用事例

自然言語処理
テキスト要約
入力テキストの簡潔な要約を生成します。
複数の要約ベンチマークテストでSOTAを達成しました。
質問応答システム
与えられた文脈に基づいて質問に答えます。
複数の質問応答タスクで優れた成績を収めました。
テキスト分類
テキストを複数のカテゴリに分類します。
GLUEなどのベンチマークテストで良好な成績を得ました。
プロンプトエンジニアリング
ゼロショット学習
自然言語プロンプトを通じて見たことのないタスクを実行します。
言語モデリング目標に適合させた後、プロンプトチューニング能力が大幅に向上しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase