M

Mamba 2.8b Hf

state-spacesによって開発
Mambaアーキテクチャに基づく28億パラメータの言語モデルで、HuggingFace Transformersライブラリと互換性あり
ダウンロード数 8,731
リリース時間 : 3/5/2024

モデル概要

高性能な因果言語モデリングタスクを実現する効率的なシーケンスモデリングモデルで、Mambaアーキテクチャを採用

モデル特徴

効率的なアーキテクチャ
Mambaアーキテクチャを採用し、従来のTransformerと比べて計算効率が高い
最適化サポート
causal_conv_1dおよびmamba-ssm最適化コンポーネントをサポートし、CUDAアクセラレーションを有効化可能
PEFT互換
LoRAなどのパラメータ効率的なファインチューニング技術をサポート

モデル能力

テキスト生成
言語理解
対話システム

使用事例

対話システム
チャットボット
自然で流暢な対話システムを構築
一貫性のある対話応答を生成可能
コンテンツ生成
テキスト継続
プロンプトに基づいて一貫性のあるテキストコンテンツを生成
文脈に合った自然言語テキストを生成可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase