F

FRED T5 1.7B

由ai-forever開發
基於T5架構的俄語預訓練語言模型,採用類似UL2的7種降噪任務混合訓練策略,參數規模17億
下載量 1,671
發布時間 : 1/20/2023

模型概述

面向俄語的大規模預訓練Transformer模型,支持多種文本生成和理解任務

模型特點

多任務降噪訓練
採用類似UL2的7種降噪任務混合訓練策略,增強模型魯棒性
大規模俄語預訓練
使用300GB俄語語料庫訓練,與ruT5模型使用相同數據集
前綴任務標記
支持<LM>、<SC1>-<SC6>等多種前綴標記,實現不同生成任務

模型能力

俄語文本生成
文本降噪
文本補全
文本改寫

使用案例

文本生成
故事續寫
根據給定開頭生成連貫的故事內容
示例中成功續寫了庫圖佐夫將軍的故事背景
文本補全
缺失文本恢復
根據上下文補全被遮蓋的文本片段
模型正確預測了<extra_id_0>標記處應填入'戰鬥經歷'或'將軍之路'
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase