M

Mpt 30b

mosaicmlによって開発
MPT-30BはMosaicMLがトレーニングしたオープンソースの大規模言語モデルで、デコーダーアーキテクチャのTransformerを基に、1兆の英語テキストとコードトークンで事前トレーニングされ、8kのコンテキストウィンドウと効率的な推論をサポートします。
ダウンロード数 2,021
リリース時間 : 6/20/2023

モデル概要

MPT-30BはMosaicの事前トレーニングTransformerシリーズモデルで、最適化されたTransformerアーキテクチャにより効率的なトレーニングと推論を実現し、強力なテキスト生成とコーディング能力を持ち、様々な自然言語処理タスクに適しています。

モデル特徴

超長文コンテキストサポート
8kトークンのコンテキストウィンドウをサポートし、ALiBi技術により更に長いシーケンスに拡張可能
効率的な推論
FlashAttentionとFasterTransformerにより高速な推論を実現し、単一GPUでデプロイ可能
商用フレンドリーなライセンス
Apache-2.0ライセンスを採用し、商用利用を許可(LLaMAなどの制限的ライセンスとは異なる)
膨大なトレーニングデータ
1兆トークンの多様なデータ(コードや学術テキストを含む)でトレーニング

モデル能力

テキスト生成
コード生成
長文処理
指示追従

使用事例

コンテンツ生成
レシピ生成
簡単なプロンプトから完全な料理レシピを生成
例ではヴィーガンバナナブレッドのレシピを生成する能力を示している
対話システム
チャットボット
微調整バージョンMPT-30B-Chatを基に対話システムを構築
Hugging Faceでデモスペースを提供
学術研究
論文要約
長文の学術テキストを処理し要約を生成
Semantic Scholar ORCデータでのトレーニングによる恩恵
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase