R

Randeng T5 77M

由IDEA-CCNL開發
擅長處理自然語言轉換任務的中文版mT5-small輕量級模型
下載量 104
發布時間 : 6/8/2022

模型概述

基於mT5-small架構進行中文適配訓練,專注於自然語言轉換任務,適用於中文文本處理

模型特點

中文優化
專門針對中文進行了優化訓練,提高了中文文本處理能力
輕量級模型
僅77M參數,適合資源有限的環境
高效訓練
採用語料庫自適應預訓練技術(CAPT)在180GB悟道語料庫上進行增量訓練,訓練效率高

模型能力

文本生成
自然語言轉換

使用案例

文本處理
文本補全
根據上下文補全缺失的文本片段
示例輸入:'北京有悠久的 <extra_id_0>和 <extra_id_1>。'
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase