T

T5 Efficient Large

由google開發
T5-Efficient-LARGE是基於谷歌T5的變體,採用深度窄型架構優化下游任務性能,擁有7.377億參數。
下載量 183
發布時間 : 3/2/2022

模型概述

該模型是基於T5架構的預訓練檢查點,優先增加模型深度以提升效率,適用於英語NLP任務,需微調後使用。

模型特點

深度窄型架構
相比參數數量相近的其他架構,優先增加模型深度(24層)以提升下游任務效率
高效預訓練
在C4數據集上訓練524,288步,採用跨度的掩碼語言建模目標
參數優化
全精度需約2.95GB內存,半精度僅需1.47GB,平衡性能與資源消耗

模型能力

文本生成
文本摘要
問答系統
文本分類

使用案例

文本處理
新聞摘要生成
將長篇文章壓縮為簡潔摘要
開放域問答
基於給定文本回答自然語言問題
內容分類
情感分析
對文本進行正面/負面情感分類
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase