🚀 T5 Base モデルカード
Text-To-Text Transfer Transformer (T5) は、様々な自然言語処理タスクを統一的なテキスト対テキスト形式で扱えるモデルです。T5-Base は、2億2000万のパラメータを持つチェックポイントで、多言語対応の言語モデルです。
🚀 クイックスタート
以下のコードを使用して、モデルを使い始めることができます。
クリックして展開
from transformers import T5Tokenizer, T5Model
tokenizer = T5Tokenizer.from_pretrained("t5-base")
model = T5Model.from_pretrained("t5-base")
input_ids = tokenizer(
"Studies have been shown that owning a dog is good for you", return_tensors="pt"
).input_ids
decoder_input_ids = tokenizer("Studies show that", return_tensors="pt").input_ids
outputs = model(input_ids=input_ids, decoder_input_ids=decoder_input_ids)
last_hidden_states = outputs.last_hidden_state
詳細な例については、Hugging Face T5 のドキュメントと、モデル開発者によって作成された Colab Notebook を参照してください。
✨ 主な機能
開発者によると、T5 のテキスト対テキストフレームワークにより、機械翻訳、文書要約、質問応答、分類タスク(例:感情分析)など、あらゆる自然言語処理タスクに同じモデル、損失関数、ハイパーパラメータを使用できます。また、数値の文字列表現を予測するように訓練することで、回帰タスクにも適用できます。
📦 インストール
このセクションでは、インストールに関する具体的な手順が提供されていません。
💻 使用例
上記の「クイックスタート」セクションにコード例があります。
基本的な使用法
from transformers import T5Tokenizer, T5Model
tokenizer = T5Tokenizer.from_pretrained("t5-base")
model = T5Model.from_pretrained("t5-base")
input_ids = tokenizer(
"Studies have been shown that owning a dog is good for you", return_tensors="pt"
).input_ids
decoder_input_ids = tokenizer("Studies show that", return_tensors="pt").input_ids
outputs = model(input_ids=input_ids, decoder_input_ids=decoder_input_ids)
last_hidden_states = outputs.last_hidden_state
📚 ドキュメント
モデル詳細
モデル説明
Text-To-Text Transfer Transformer (T5) の開発者は、以下のように述べています。
T5 では、すべての自然言語処理タスクを統一的なテキスト対テキスト形式に再構築することを提案しています。この形式では、入力と出力は常にテキスト文字列であり、クラスラベルまたは入力のスパンのみを出力できる BERT スタイルのモデルとは対照的です。私たちのテキスト対テキストフレームワークにより、任意の自然言語処理タスクで同じモデル、損失関数、ハイパーパラメータを使用できます。
T5-Base は、2億2000万のパラメータを持つチェックポイントです。
- 開発者: Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu。関連論文 と GitHub リポジトリ を参照してください。
- モデルタイプ: 言語モデル
- 言語: 英語、フランス語、ルーマニア語、ドイツ語
- ライセンス: Apache 2.0
- 関連モデル: すべての T5 チェックポイント
- 詳細情報のリソース:
用途
直接的な使用と下流の使用
開発者は、ブログ記事で、このモデルについて以下のように書いています。
私たちのテキスト対テキストフレームワークにより、機械翻訳、文書要約、質問応答、分類タスク(例:感情分析)など、あらゆる自然言語処理タスクに同じモデル、損失関数、ハイパーパラメータを使用できます。また、数値の文字列表現を予測するように訓練することで、回帰タスクにも適用できます。
詳細については、ブログ記事 と 研究論文 を参照してください。
範囲外の使用
詳細情報が必要です。
バイアス、リスク、制限事項
詳細情報が必要です。
推奨事項
詳細情報が必要です。
訓練詳細
訓練データ
このモデルは、Colossal Clean Crawled Corpus (C4) で事前学習されています。このデータセットは、T5 と同じ 研究論文 の文脈で開発および公開されました。
モデルは、教師なし(1.)と教師ありタスク(2.)のマルチタスク混合で事前学習されています。この際、以下のデータセットが(1.)と(2.)に使用されました。
- 教師なしノイズ除去目的で使用されたデータセット:
- 教師ありテキスト対テキスト言語モデリング目的で使用されたデータセット
- 文の妥当性判断
- 感情分析
- 言い換え/文の類似性
- 自然言語推論
- 文の完成
- 単語の意味曖昧性解消
- 質問応答
訓練手順
モデル開発者は、概要 で以下のように書いています。
この論文では、すべての言語問題をテキスト対テキスト形式に変換する統一的なフレームワークを導入することで、自然言語処理の転移学習技術の可能性を探ります。私たちの体系的な研究では、事前学習の目的、アーキテクチャ、ラベルなしデータセット、転移アプローチ、その他の要因を数十の言語理解タスクで比較します。
導入されたフレームワークである T5 フレームワークは、論文で研究されたアプローチを統合した訓練手順を含んでいます。詳細については、研究論文 を参照してください。
評価
テストデータ、要因、メトリクス
開発者は、24 のタスクでモデルを評価しました。詳細については、研究論文 を参照してください。
結果
T5-Base の完全な結果については、研究論文 の表 14 を参照してください。
環境影響
炭素排出量は、Lacoste et al. (2019) で提示された Machine Learning Impact calculator を使用して推定できます。
- ハードウェアタイプ: Google Cloud TPU Pods
- 使用時間: 詳細情報が必要です
- クラウドプロバイダー: GCP
- コンピュートリージョン: 詳細情報が必要です
- 排出された炭素量: 詳細情報が必要です
引用
BibTeX:
@article{2020t5,
author = {Colin Raffel and Noam Shazeer and Adam Roberts and Katherine Lee and Sharan Narang and Michael Matena and Yanqi Zhou and Wei Li and Peter J. Liu},
title = {Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer},
journal = {Journal of Machine Learning Research},
year = {2020},
volume = {21},
number = {140},
pages = {1-67},
url = {http://jmlr.org/papers/v21/20-074.html}
}
APA:
- Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., ... & Liu, P. J. (2020). Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140), 1-67.
モデルカード作成者
このモデルカードは、Hugging Face のチームによって作成されました。
🔧 技術詳細
このセクションでは、具体的な技術的な説明が提供されていません。
📄 ライセンス
このモデルは、Apache 2.0 ライセンスの下で提供されています。