P

Pile T5 Base

由EleutherAI開發
Pile-T5基礎版是基於T5x庫在The Pile數據集上訓練的編碼器-解碼器模型,通過MLM目標訓練了200萬步,約2萬億token。
下載量 50
發布時間 : 1/17/2024

模型概述

Pile-T5主要面向研究用途,其學習的英語內部表徵可用於提取下游任務特徵。兼容Transformers庫,支持微調部署。

模型特點

大規模預訓練
在825GB的The Pile數據集上訓練,覆蓋22類英語文本來源
T5x架構優化
採用T5x可擴展模型架構,借鑑UMT5實現並使用LlamaTokenizer
研究導向設計
專注於提取文本表徵能力,適合下游任務微調而非直接部署

模型能力

文本生成
掩碼語言建模
文本特徵提取

使用案例

學術研究
語言模型研究
用於研究大規模預訓練模型的行為和表徵學習
下游任務基準測試
作為基礎模型在SuperGLUE等基準上進行微調評估
性能指標見官方博客
工業應用
定製化NLP解決方案
基於Apache 2.0許可證進行領域適配微調
需自行評估風險與偏見
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase