T

Transfo Xl Wt103

transfo-xlによって開発
Transformer-XLは相対位置エンコーディングを採用した因果的Transformerアーキテクチャで、以前に計算された隠れ状態を再利用することで、より長いコンテキストを捉えることができ、テキスト生成タスクに適しています。
ダウンロード数 4,498
リリース時間 : 3/2/2022

モデル概要

このモデルはWikitext-103データセットを基に訓練され、主に英語のテキスト生成タスクに使用され、適応的ソフトマックス入出力とメモリ機構を採用して長テキスト処理能力を強化しています。

モデル特徴

長テキストメモリ機構
以前に計算された隠れ状態を再利用することで、セグメント間のメモリを実現し、長距離の依存関係を効果的に捉えます。
相対位置エンコーディング
正弦波埋め込みの位置エンコーディング方式を採用し、モデルの位置情報に対する感度を高めます。
適応的ソフトマックス
結合型の入出力の適応的ソフトマックスを使用し、計算効率を向上させます。

モデル能力

英語テキスト生成
長テキストシーケンスモデリング

使用事例

コンテンツ作成
自動テキスト続き生成
与えられた冒頭に基づいて、連続した後続のテキストを自動生成します。
500 - 1000個のトークンの連続したテキストを生成できます。
教育研究
言語モデル研究
長テキストの依存関係のモデリング方法を研究するために使用されます。
Wikitext-103で18.3の困惑度を達成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase