T

T5 Base Nl36 Finnish

Finnish-NLPによって開発
フィンランド語で事前学習されたT5モデルで、スパンベースのマスク言語モデリング目標を採用しており、下流タスク用にファインチューニングが必要
ダウンロード数 19
リリース時間 : 4/15/2022

モデル概要

これは大量のフィンランド語コーパスで自己監督方式で事前学習されたT5モデルで、エンコーダ-デコーダアーキテクチャを採用し、すべてのNLP問題をテキストからテキストへの形式で処理します。モデルは特定のタスク用にファインチューニング後に実際に使用可能です。

モデル特徴

効率的な深層アーキテクチャ
36層トランスフォーマーの深層-ナローアーキテクチャを採用し、標準T5-baseの12層と比べてより優れた性能
改良された事前学習技術
T5 v1.1の改良を使用:GEGLU活性化関数、ドロップアウトなしの事前学習、純粋なMLM目標訓練
高品質な訓練データ
厳密にクリーニングされた76GBのフィンランド語テキストを使用し、ウィキペディア、ニュースなど多様なソースを含む

モデル能力

テキスト生成
テキスト変換
シーケンス・ツー・シーケンスタスク

使用事例

テキスト処理
大文字小文字と句読点修正
ファインチューニング後にフィンランド語テキストの大文字小文字と句読点エラーを自動修正
Finnish-NLP/t5-small-nl24-casing-punctuation-correctionモデルを参照
テキスト分類
ニュース分類
Yleニュースデータセットでファインチューニング後94.4%の精度達成
同パラメータ規模の多言語mT5モデルを上回る
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase