F

FRED T5 1.7B

Developed by ai-forever
T5アーキテクチャに基づくロシア語事前学習言語モデルで、UL2に似た7種類のノイズ除去タスクの混合学習戦略を採用し、パラメータ規模は17億
Downloads 1,671
Release Time : 1/20/2023

Model Overview

ロシア語向けの大規模事前学習Transformerモデルで、さまざまなテキスト生成と理解タスクをサポートします

Model Features

マルチタスクノイズ除去学習
UL2に似た7種類のノイズ除去タスクの混合学習戦略を採用し、モデルのロバスト性を強化します
大規模ロシア語事前学習
300GBのロシア語コーパスを使用して学習し、ruT5モデルと同じデータセットを使用します
プレフィックスタスクタグ
<LM>、<SC1>-<SC6>などのさまざまなプレフィックスタグをサポートし、異なる生成タスクを実現します

Model Capabilities

ロシア語テキスト生成
テキストノイズ除去
テキスト補完
テキスト書き換え

Use Cases

テキスト生成
物語の続き生成
与えられた冒頭に基づいて一貫した物語内容を生成します
例では、クトゥーゾフ将軍の物語背景を成功裏に続き生成しました
テキスト補完
欠落テキストの復元
文脈に基づいて隠されたテキスト断片を補完します
モデルは<extra_id_0>タグの位置に「戦闘経験」または「将軍の道」を正しく予測しました
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase