P

Pythia 2.8b

由EleutherAI開發
Pythia-28億是EleutherAI開發的可擴展語言模型套件中的一員,專為促進大語言模型的可解釋性研究而設計。該模型基於Transformer架構,在The Pile數據集上訓練,具有28億參數。
下載量 40.38k
發布時間 : 2/13/2023

模型概述

Pythia-28億是一個基於Transformer架構的因果語言模型,屬於Pythia可擴展模型套件的一部分。該套件旨在為科學研究提供受控環境,特別關注大語言模型的行為、功能和侷限性研究。

模型特點

科學研究的受控環境
專為促進大語言模型的可解釋性研究而設計,提供標準化的訓練過程和檢查點
完整的訓練檢查點
提供154箇中間檢查點,包括初始step0、10個對數間隔檢查點和143個均勻間隔檢查點
標準化訓練數據
所有Pythia模型使用完全相同的訓練數據和順序進行訓練,便於對比研究

模型能力

英語文本生成
語言建模
文本補全

使用案例

科學研究
語言模型行為研究
研究大語言模型在不同訓練階段的演變過程
模型可解釋性分析
分析模型內部工作機制和決策過程
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase