L

Linglong 317M

由AlumiK開發
LingLong 是一個輕量級中文預訓練語言模型,基於 GPT-3 架構構建,參數規模為 3.17 億,適合計算資源有限的研究者使用。
下載量 27
發布時間 : 5/11/2024

模型概述

LingLong 是由南開大學軟件學院訓練的中文預訓練語言模型,雖然參數規模較小,但在各類自然語言處理任務中展現出卓越性能,適合用於下游研究和微調任務。

模型特點

輕量級
僅包含 3.17 億參數,計算資源需求低,適合資源有限的研究者使用。
高性能
儘管參數規模較小,但在各類自然語言處理任務中展現出卓越性能。
多語言支持
支持英文和中文兩種語言。

模型能力

文本生成
自然語言處理

使用案例

學術研究
下游任務微調
作為基礎模型用於微調各類自然語言處理任務。
無需消耗過量計算資源即可開展研究。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase