M

Mpt 7b

由mosaicml開發
MPT-7B是由MosaicML訓練的開源商用大語言模型,基於1萬億標記的英文文本和代碼預訓練,採用改進的Transformer架構優化訓練和推理效率。
下載量 27.19k
發布時間 : 5/5/2023

模型概述

MPT-7B是基於解碼器架構的Transformer模型,支持長文本處理和高效推理,適用於文本生成、對話系統等任務。

模型特點

商業用途許可
允許商業用途,與LLaMA等限制性許可模型不同。
大規模訓練數據
基於1萬億標記訓練,遠超同類開源模型(如Pythia的3000億標記)。
超長上下文處理
通過ALiBi技術支持長達65k+標記的上下文處理能力。
高效推理
通過FlashAttention和FasterTransformer實現快速推理。

模型能力

文本生成
長文本處理
指令跟隨
對話生成

使用案例

內容創作
超長故事寫作
生成或續寫超長篇幅的虛構故事
MPT-7B-StoryWriter版本可處理84k標記的上下文
對話系統
聊天機器人
基於MPT-7B-Chat模型構建對話系統
指令執行
任務指導
遵循短指令完成特定任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase