L

Linglong 317M

Developed by AlumiK
LingLong 是一個輕量級中文預訓練語言模型,基於 GPT-3 架構構建,參數規模為 3.17 億,適合計算資源有限的研究者使用。
Downloads 27
Release Time : 5/11/2024

Model Overview

LingLong 是由南開大學軟件學院訓練的中文預訓練語言模型,雖然參數規模較小,但在各類自然語言處理任務中展現出卓越性能,適合用於下游研究和微調任務。

Model Features

輕量級
僅包含 3.17 億參數,計算資源需求低,適合資源有限的研究者使用。
高性能
儘管參數規模較小,但在各類自然語言處理任務中展現出卓越性能。
多語言支持
支持英文和中文兩種語言。

Model Capabilities

文本生成
自然語言處理

Use Cases

學術研究
下游任務微調
作為基礎模型用於微調各類自然語言處理任務。
無需消耗過量計算資源即可開展研究。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase