M

Mpt 7b

mosaicmlによって開発
MPT-7BはMosaicMLによってトレーニングされた商用利用可能なオープンソースの大規模言語モデルで、1兆トークンの英語テキストとコードに基づいて事前トレーニングされ、改良されたTransformerアーキテクチャを使用してトレーニングと推論の効率を最適化しています。
ダウンロード数 27.19k
リリース時間 : 5/5/2023

モデル概要

MPT-7Bはデコーダーアーキテクチャに基づくTransformerモデルで、長文処理と効率的な推論をサポートし、テキスト生成や対話システムなどのタスクに適しています。

モデル特徴

商用利用許可
商用利用が許可されており、LLaMAなどの制限的なライセンスモデルとは異なります。
大規模トレーニングデータ
1兆トークンでトレーニングされており、同様のオープンソースモデル(Pythiaの3000億トークンなど)を大幅に上回ります。
超長コンテキスト処理
ALiBi技術により65k以上のトークンのコンテキスト処理能力を実現。
効率的な推論
FlashAttentionとFasterTransformerにより高速な推論を実現。

モデル能力

テキスト生成
長文処理
指示追従
対話生成

使用事例

コンテンツ作成
超長編ストーリー作成
超長編のフィクションストーリーを生成または続きを書く
MPT-7B-StoryWriterバージョンは84kトークンのコンテキストを処理可能
対話システム
チャットボット
MPT-7B-Chatモデルに基づいて対話システムを構築
指示実行
タスクガイダンス
短い指示に従って特定のタスクを完了
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase