I

It5 Small

gsartiによって開発
IT5は、イタリア語に対して大規模なシーケンス-to-シーケンスTransformerモデルの事前学習を行った最初のモデルファミリーで、元のT5モデルの方法に従っています。
ダウンロード数 220
リリース時間 : 3/2/2022

モデル概要

このモデルは、イタリア語用のシーケンス-to-シーケンスTransformerモデルで、主にテキスト理解と生成タスクに使用され、下流タスクで微調整する必要があります。

モデル特徴

イタリア語最適化
イタリア語に特化して大規模な事前学習を行い、イタリア語のテキスト処理能力を最適化しました。
T5アーキテクチャに基づく
改良されたT5-v1.1小型アーキテクチャを採用し、ゲート付きgelu活性化関数を使用しています。
大規模な学習データ
クリーニングされたイタリア語のmC4コーパス(約410億語)を使用して学習しました。

モデル能力

イタリア語テキスト理解
イタリア語テキスト生成
シーケンス-to-シーケンスタスク処理

使用事例

自然言語処理
質問応答システム
イタリア語の質問応答システムの構築に使用できます。
下流タスクで微調整する必要があります。
テキスト要約
イタリア語のテキスト要約タスクに使用できます。
下流タスクで微調整する必要があります。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase