M

Minueza 2 96M

Developed by Felladrin
基于Llama架构的紧凑型语言模型,支持英语和葡萄牙语,参数规模9600万,支持4096个token的上下文长度。
Downloads 357
Release Time : 4/5/2025

Model Overview

从零开始训练的轻量级基础模型,可作为后续特定应用微调的基石。虽然推理能力和知识有限,但适合在资源受限环境中使用。

Model Features

紧凑高效
仅9600万参数的小型模型,适合在无GPU设备或移动端运行
双语支持
同时支持英语和葡萄牙语文本生成
长上下文处理
支持4096个token的上下文窗口长度
微调友好
设计为可作为ChatML格式微调的基座模型

Model Capabilities

文本生成
多语言处理

Use Cases

移动端应用
浏览器内文本生成
通过Wllama和Transformers.js在移动端浏览器运行
实现轻量级的客户端文本生成功能
资源受限环境
低功耗设备部署
在无GPU设备上高效运行
为边缘设备提供基础语言模型能力
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase