A

Albert Xlarge V2

由 albert 开发
ALBERT XLarge v2是基于Transformer架构的英语预训练模型,采用参数共享机制减少内存占用,通过掩码语言建模和句子顺序预测目标训练。
下载量 2,195
发布时间 : 3/2/2022

模型简介

该模型主要用于英语文本的特征提取,适用于下游任务的微调,如序列分类、标记分类或问答。

模型特点

参数共享机制
所有Transformer层共享相同权重,显著减少内存占用
双目标预训练
同时使用掩码语言建模(MLM)和句子顺序预测(SOP)进行预训练
高效架构
通过128维词嵌入和2048维隐藏层实现高效计算

模型能力

英语文本理解
特征提取
掩码语言预测
句子顺序预测

使用案例

文本分类
情感分析
对文本进行正面/负面情感分类
问答系统
阅读理解
基于给定文本回答相关问题
在SQuAD2.0上达到87.9/84.1的F1/EM分数
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase