M

Mpt 30b

Developed by mosaicml
MPT-30BはMosaicMLがトレーニングしたオープンソースの大規模言語モデルで、デコーダーアーキテクチャのTransformerを基に、1兆の英語テキストとコードトークンで事前トレーニングされ、8kのコンテキストウィンドウと効率的な推論をサポートします。
Downloads 2,021
Release Time : 6/20/2023

Model Overview

MPT-30BはMosaicの事前トレーニングTransformerシリーズモデルで、最適化されたTransformerアーキテクチャにより効率的なトレーニングと推論を実現し、強力なテキスト生成とコーディング能力を持ち、様々な自然言語処理タスクに適しています。

Model Features

超長文コンテキストサポート
8kトークンのコンテキストウィンドウをサポートし、ALiBi技術により更に長いシーケンスに拡張可能
効率的な推論
FlashAttentionとFasterTransformerにより高速な推論を実現し、単一GPUでデプロイ可能
商用フレンドリーなライセンス
Apache-2.0ライセンスを採用し、商用利用を許可(LLaMAなどの制限的ライセンスとは異なる)
膨大なトレーニングデータ
1兆トークンの多様なデータ(コードや学術テキストを含む)でトレーニング

Model Capabilities

テキスト生成
コード生成
長文処理
指示追従

Use Cases

コンテンツ生成
レシピ生成
簡単なプロンプトから完全な料理レシピを生成
例ではヴィーガンバナナブレッドのレシピを生成する能力を示している
対話システム
チャットボット
微調整バージョンMPT-30B-Chatを基に対話システムを構築
Hugging Faceでデモスペースを提供
学術研究
論文要約
長文の学術テキストを処理し要約を生成
Semantic Scholar ORCデータでのトレーニングによる恩恵
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase