F

FRED T5 Large

由ai-forever開發
基於T5架構的俄語預訓練語言模型,採用類似UL2的7種降噪器混合訓練策略,支持多種文本生成任務。
下載量 998
發布時間 : 2/28/2023

模型概述

面向俄語的預訓練Transformer語言模型,主要用於文本生成和降噪任務,支持多種前綴標記控制生成內容。

模型特點

多任務降噪訓練
採用類似UL2的7種降噪器混合訓練策略,增強模型處理噪聲文本的能力
前綴標記控制
支持多種前綴標記(如<LM>、<SC1>-<SC6>)控制生成內容和任務類型
大規模俄語訓練
使用300GB俄語語料庫訓練,與ruT5模型使用相同數據集

模型能力

俄語文本生成
文本降噪
前綴控制生成
故事續寫
文本補全

使用案例

文本生成
故事續寫
使用<LM>前綴進行開放式文本生成
模型能夠根據給定開頭續寫連貫的故事內容
文本補全
使用<SC1>前綴進行文本補全任務
模型能夠準確預測並補全缺失的文本片段
降噪處理
噪聲文本恢復
處理包含噪聲或缺失的文本輸入
模型能夠有效恢復原始文本內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase