M

Mamba 790m Hf

由 state-spaces 开发
Mamba 是一个与 transformers 兼容的高效序列模型,具有 7.9 亿参数,适用于因果语言建模任务。
下载量 6,897
发布时间 : 3/6/2024

模型简介

Mamba 是一个高效的序列模型,专为因果语言建模设计,能够处理长序列并生成连贯的文本。

模型特点

高效序列建模
Mamba 使用优化的 CUDA 内核实现高效的序列处理,适合长序列任务。
与 transformers 兼容
模型完全兼容 Hugging Face transformers 库,便于集成和使用。
轻量级微调支持
支持通过 PEFT 库进行轻量级微调,如 LoRA,适合资源有限的环境。

模型能力

文本生成
因果语言建模

使用案例

文本生成
对话生成
生成连贯的对话回复。
生成自然流畅的对话文本。
内容创作
生成文章、故事或其他创意文本。
生成连贯且有创意的文本内容。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase