O

Opt 125m

由facebook開發
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
下載量 6.3M
發布時間 : 5/11/2022

模型概述

基於英文文本預訓練的因果語言模型,支持文本生成和少樣本學習任務,採用解碼器專用Transformer架構。

模型特點

開放研究導向
專門設計用於支持可復現的大規模語言模型研究,降低研究門檻
GPT-3對標性能
採用與GPT-3相同的評估框架和提示詞設置,性能表現可比
高效訓練實踐
應用數據收集和訓練過程的最新最佳實踐,優化訓練效率

模型能力

文本生成
零樣本學習
少樣本學習
下游任務微調

使用案例

文本生成
開放式問答
根據用戶提問生成連貫回答
示例:輸入'晚餐吃什麼?',輸出包含相關建議的文本
研究應用
模型偏見研究
分析大語言模型中的偏見和毒性問題
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase