M

Minueza 2 96M

由Felladrin開發
基於Llama架構的緊湊型語言模型,支持英語和葡萄牙語,參數規模9600萬,支持4096個token的上下文長度。
下載量 357
發布時間 : 4/5/2025

模型概述

從零開始訓練的輕量級基礎模型,可作為後續特定應用微調的基石。雖然推理能力和知識有限,但適合在資源受限環境中使用。

模型特點

緊湊高效
僅9600萬參數的小型模型,適合在無GPU設備或移動端運行
雙語支持
同時支持英語和葡萄牙語文本生成
長上下文處理
支持4096個token的上下文窗口長度
微調友好
設計為可作為ChatML格式微調的基座模型

模型能力

文本生成
多語言處理

使用案例

移動端應用
瀏覽器內文本生成
通過Wllama和Transformers.js在移動端瀏覽器運行
實現輕量級的客戶端文本生成功能
資源受限環境
低功耗設備部署
在無GPU設備上高效運行
為邊緣設備提供基礎語言模型能力
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase