O

Opt 350m

由facebook開發
OPT是由Meta AI開發的開源預訓練Transformer語言模型,參數規模從1.25億到1750億不等,旨在促進大規模語言模型的研究。
下載量 314.14k
發布時間 : 5/11/2022

模型概述

OPT是一套僅解碼器的預訓練Transformer模型,使用因果語言建模目標進行訓練,支持文本生成和下游任務微調。

模型特點

開放研究導向
旨在降低大型語言模型研究門檻,促進可復現性和社區參與
GPT-3級性能
模型規模與性能對標GPT-3,但採用更高效的數據收集和訓練方法
多規模可選
提供從1.25億到1750億參數的不同規模模型選擇

模型能力

文本生成
零樣本學習
少樣本學習
下游任務微調

使用案例

文本生成
內容創作
生成文章、故事或對話內容
可生成連貫的文本段落
教育研究
語言模型研究
研究大型語言模型的偏見、魯棒性等問題
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase