P

Pythia 410m

由EleutherAI開發
Pythia是EleutherAI開發的一系列因果語言模型,專為可解釋性研究設計,包含從7000萬到120億參數的8種規模,提供154個訓練檢查點
下載量 83.28k
發布時間 : 2/13/2023

模型概述

基於Transformer的英語語言模型,採用GPT-NeoX架構,訓練於Pile數據集,主要用於研究大語言模型的行為和功能

模型特點

完整訓練檢查點
提供154個訓練中間檢查點,便於研究模型演化過程
科學實驗設計
所有規模模型使用相同訓練數據和順序,確保實驗可比性
性能對標
達到或超越同類規模模型(如OPT、GPT-Neo)的性能
去重對比
每個規模提供原始數據和全局去重數據訓練的兩種版本

模型能力

英語文本生成
語言模型行為研究
模型可解釋性分析

使用案例

學術研究
語言模型行為分析
研究模型在不同訓練階段的參數變化規律
可通過154個檢查點追蹤模型能力發展
去重數據影響研究
比較原始數據與去重數據訓練模型的性能差異
技術驗證
中等規模模型基準測試
作為4億參數級別的參考模型進行技術對比
性能優於同類OPT-350M模型
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase