T5 Base Lm Adapt
T5 V1.1言語モデル適合版はT5アーキテクチャを改良したテキスト生成モデルで、GEGLU活性化関数と言語モデリングの目的を最適化することで、プロンプトチューニングの効果を大幅に向上させます。
ダウンロード数 1,062
リリース時間 : 3/2/2022
モデル概要
このモデルはT5基礎版の改良版で、テキスト-to-テキスト変換タスクに特化しており、アーキテクチャの最適化と学習目標の調整により言語モデリング能力を向上させています。
モデル特徴
GEGLU活性化関数
フィードフォワード隠れ層では、元のReLUの代わりにGEGLU活性化関数を採用し、モデルの表現能力を向上させます。
Dropoutなしの事前学習
事前学習段階ではDropoutメカニズムを無効にし、モデルの品質を向上させます。微調整時には再度有効にする必要があります。
二つの目標での学習
ノイズ除去と言語モデリングの目標を同時に用いて事前学習を行い、言語理解能力を強化します。
パラメータの最適化
モデルの次元構造を調整し、d_model次元を拡大し、アテンションヘッドとフィードフォワード層の次元を減らします。
モデル能力
テキスト生成
テキスト変換
言語モデリング
プロンプトチューニング
転移学習
使用事例
テキスト生成
自動要約
長いテキストを簡潔な要約に圧縮します。
要約生成のベンチマークテストで最先端の成果を達成しました。
質問応答システム
テキスト内容に基づいて質問に答えます。
複数の質問応答タスクで優れた性能を発揮します。
テキスト変換
テキスト分類
入力テキストを事前定義されたカテゴリに分類します。
テキスト分類のベンチマークで最先端のレベルに達しました。
言語翻訳
言語間のテキスト変換を実現します。
複数の言語の翻訳タスクをサポートします。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98