J

Jamba V0.1

ai21labsによって開発
Jambaは最先端のハイブリッドSSM-Transformer大規模言語モデルで、MambaアーキテクチャとTransformerの利点を組み合わせ、256Kのコンテキスト長をサポートし、スループットと性能において同規模のモデルを凌駕します。
ダウンロード数 6,247
リリース時間 : 3/28/2024

モデル概要

Jambaは初のプロダクションレベルMamba実装で、事前訓練された混合専門家(MoE)テキスト生成モデルとして、120億の活性化パラメータと520億の総パラメータを持ちます。テキスト生成、ファインチューニング、研究開発に適しています。

モデル特徴

ハイブリッドアーキテクチャの革新
MambaのSSMアーキテクチャと従来のTransformerを組み合わせ、高性能を維持しながらスループットを向上
超長文コンテキストサポート
256Kトークンのコンテキスト長をサポート、80GB GPU単体で140Kトークンを処理可能
効率的な専門家混合
MoE設計を採用、総パラメータ520億だが活性化は120億パラメータのみで性能と効率を両立
プロダクションレベル実装
実運用可能な初のMambaアーキテクチャ実装で、アプリケーション開発に新たな可能性を提供

モデル能力

長文生成
知識質問応答
テキスト継続
指示ファインチューニング基盤

使用事例

研究開発
アーキテクチャ革新研究
ハイブリッドSSM-Transformerアーキテクチャの性能限界を探求
複数のベンチマークで同規模モデルに匹敵または超越
企業アプリケーション
長文書処理
256Kコンテキスト長を活用した超長文書処理
長距離の意味的一貫性を維持可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase