T

T5 Efficient Large

googleによって開発
T5-Efficient-LARGEはGoogleのT5をベースにしたバリエーションで、深度狭幅アーキテクチャを採用して下流タスクの性能を最適化し、7.377億個のパラメータを持っています。
ダウンロード数 183
リリース時間 : 3/2/2022

モデル概要

このモデルはT5アーキテクチャに基づく事前学習チェックポイントで、効率を向上させるためにまずモデルの深度を増やし、英語のNLPタスクに適しており、微調整後に使用する必要があります。

モデル特徴

深度狭幅アーキテクチャ
パラメータ数が近い他のアーキテクチャと比較して、下流タスクの効率を向上させるためにまずモデルの深度(24層)を増やします
高効率事前学習
C4データセットで524,288ステップ学習し、スパンのマスク言語モデリング目標を採用します
パラメータ最適化
全精度で約2.95GBのメモリが必要で、半精度ではわずか1.47GBで済み、性能とリソース消費をバランスさせます

モデル能力

テキスト生成
テキスト要約
質問応答システム
テキスト分類

使用事例

テキスト処理
ニュース要約生成
長文を簡潔な要約に圧縮する
オープンドメイン質問応答
与えられたテキストに基づいて自然言語の質問に回答する
コンテンツ分類
感情分析
テキストを肯定的/否定的な感情に分類する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase