T5 Xl Lm Adapt
T5 1.1言語モデル適合版は、元のT5モデルを改良したバージョンで、GEGLU活性化関数を採用し、パラメータ共有を廃止し、言語モデリングタスクに特化して最適化されています。
ダウンロード数 1,111
リリース時間 : 3/2/2022
モデル概要
このモデルはT5アーキテクチャの改良版で、言語モデリングタスクに特化して適合されており、活性化関数と学習戦略を改良することでプロンプトチューニング能力を向上させています。
モデル特徴
GEGLU活性化関数
フィードフォワード隠れ層ではReLUの代わりにGEGLU活性化関数を採用し、モデルの表現能力を向上させます。
無Dropout事前学習
事前学習段階ではDropoutを無効にして品質を向上させ、微調整時には再度有効にする必要があります。
純粋なC4データセット学習
事前学習にはC4データセットのみを使用し、下流タスクのデータを混合せず、学習の一貫性を保ちます。
パラメータ解耦
埋め込み層と分類器層のパラメータ共有を廃止し、モデルの柔軟性を高めます。
二重目標事前学習
ノイズ除去と言語モデリングの両方の目標に基づいて事前学習を行います。
モデル能力
テキスト生成
テキスト理解
転移学習
プロンプトチューニング
ゼロショット学習
使用事例
自然言語処理
テキスト要約
入力テキストの簡潔な要約を生成します。
複数の要約ベンチマークテストでSOTAを達成しました。
質問応答システム
与えられた文脈に基づいて質問に答えます。
複数の質問応答タスクで優れた成績を収めました。
テキスト分類
テキストを複数のカテゴリに分類します。
GLUEなどのベンチマークテストで良好な成績を得ました。
プロンプトエンジニアリング
ゼロショット学習
自然言語プロンプトを通じて見たことのないタスクを実行します。
言語モデリング目標に適合させた後、プロンプトチューニング能力が大幅に向上しました。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98