T

T5 V1 1 Xl

googleによって開発
T5 1.1はGoogleが改良したテキストからテキストへの変換Transformerモデルで、GEGLU活性化関数と最適化されたアーキテクチャを採用し、C4データセットのみを使用した教師なし事前学習を行っています
ダウンロード数 30.17k
リリース時間 : 3/2/2022

モデル概要

改良版T5モデルで、NLPタスクをテキストからテキスト形式に統一して変換し、ダウンストリームタスク用にファインチューニングして使用する必要があります

モデル特徴

GEGLU活性化関数
フィードフォワード隠れ層でReLUの代わりにGEGLUを使用し、モデルのパフォーマンスを向上させます
純粋な教師なし事前学習
C4データセットのみで事前学習を行い、ダウンストリームタスクデータを混合しません
パラメータ共有の最適化
埋め込み層と分類器層のパラメータ共有を廃止しました
アーキテクチャ調整
d_model次元を増やし、注意力ヘッド数とフィードフォワード層の次元を減らしました

モデル能力

テキスト生成
テキスト分類
質問応答システム
要約生成
機械翻訳

使用事例

テキスト生成
コンテンツ作成
記事やストーリーなどの一貫性のあるテキストを生成します
テキスト理解
感情分析
テキストの感情的な傾向を分析します
情報抽出
質問応答システム
与えられたテキストに基づいて質問に答えます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase