M

Mamba 2.8b Hf

由state-spaces開發
基於Mamba架構的28億參數語言模型,兼容HuggingFace Transformers庫
下載量 8,731
發布時間 : 3/5/2024

模型概述

一個高效的序列建模模型,採用Mamba架構實現高性能的因果語言建模任務

模型特點

高效架構
採用Mamba架構,相比傳統Transformer具有更高的計算效率
優化支持
支持causal_conv_1d和mamba-ssm優化組件,可啟用CUDA加速
PEFT兼容
支持參數高效微調技術如LoRA

模型能力

文本生成
語言理解
對話系統

使用案例

對話系統
聊天機器人
構建自然流暢的對話系統
能生成連貫的對話回覆
內容生成
文本續寫
根據提示生成連貫的文本內容
可生成符合上下文的自然語言文本
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase