M

Mpt 30b

由mosaicml開發
MPT-30B是由MosaicML訓練的開源大型語言模型,基於解碼器架構的Transformer,在1萬億個英文文本和代碼標記上預訓練,支持8k上下文窗口和高效推理。
下載量 2,021
發布時間 : 6/20/2023

模型概述

MPT-30B是Mosaic預訓練Transformer系列模型,採用優化的Transformer架構實現高效訓練和推理,具備強大的文本生成和編碼能力,適用於多種自然語言處理任務。

模型特點

超長上下文支持
支持8k標記的上下文窗口,可通過ALiBi技術擴展至更長序列
高效推理
通過FlashAttention和FasterTransformer實現快速推理,單GPU即可部署
商業友好許可
採用Apache-2.0許可證,允許商業用途(不同於LLaMA等限制性許可)
海量訓練數據
在1萬億標記的多樣化數據上訓練(含代碼和學術文本)

模型能力

文本生成
代碼生成
長文本處理
指令跟隨

使用案例

內容生成
食譜生成
根據簡單提示生成完整的烹飪食譜
示例中展示了生成純素香蕉麵包食譜的能力
對話系統
聊天機器人
基於微調版本MPT-30B-Chat構建對話系統
在Hugging Face提供演示空間
學術研究
論文摘要
處理長篇幅學術文本並生成摘要
得益於在Semantic Scholar ORC數據上的訓練
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase