L

Lola V1

由dice-research開發
LOLA是基於稀疏混合專家(Mixture-of-Experts)Transformer架構、支持160多種語言的超大規模多語言大模型,在自然語言生成與理解任務中具有競爭優勢。
下載量 867
發布時間 : 4/2/2024

模型概述

LOLA是一個開源的多語言大模型,採用GPT2風格的純解碼器架構,結合稀疏混合專家技術,支持160多種語言的文本生成任務。

模型特點

多語言支持
支持160多種語言,在多語言自然語言處理任務中表現優異
混合專家架構
採用16個專家的稀疏混合專家(MoE)架構,在保持效率的同時提升模型性能
開源可復現
完全開源,推動研究可復現性,為未來研究奠定基礎
計算高效
通過專家路由機制優化計算資源使用,每個token僅激活部分參數

模型能力

多語言文本生成
因果語言建模
自然語言理解

使用案例

文本生成
多語言文本補全
根據給定的文本片段生成連貫的後續內容
示例:輸入'敏捷的棕毛狐狸',輸出'敏捷的棕毛狐狸從懶狗身上跳了過去。'
語言研究
跨語言模式分析
研究不同語言間的隱式語言譜系模式
模型揭示了專家路由機制如何利用隱式語言譜系模式
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase