A

Albert Base V2

由 albert 开发
ALBERT是基于Transformer架构的轻量级预训练语言模型,通过参数共享机制减少内存占用,适用于英语文本处理任务。
下载量 3.1M
发布时间 : 3/2/2022

模型简介

ALBERT基础版v2是一个不区分大小写的英语预训练语言模型,采用掩码语言建模和句子顺序预测目标进行训练,适用于下游NLP任务的微调。

模型特点

参数共享机制
所有Transformer层共享相同权重,显著减少模型参数数量
双目标预训练
同时采用掩码语言建模(MLM)和句子顺序预测(SOP)进行自监督学习
轻量级设计
相比标准BERT模型,参数减少90%但仍保持较强性能

模型能力

文本特征提取
句子顺序预测
掩码词预测
下游任务微调

使用案例

文本理解
序列分类
对文本序列进行情感分析或主题分类
在SST-2情感分析任务中达到92.9%准确率
问答系统
基于文本内容的问答任务处理
在SQuAD1.1任务上达到90.2/83.2的EM/F1分数
语言建模
掩码词预测
预测被遮蔽的词汇完成句子
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase