Albert Small V2
ALBERT Small v2 是 ALBERT-base-v2 的 6 层轻量级版本,基于 Transformer 架构,适用于自然语言处理任务。
Downloads 62
Release Time : 3/2/2022
Model Overview
ALBERT Small v2 是一种轻量化的语言模型,通过参数共享和层数减少来提升效率,适用于文本分类、问答等任务。
Model Features
轻量化设计
通过减少层数(6 层)和参数共享机制降低模型复杂度
高效训练
采用 ALBERT 的跨层参数共享技术,显著减少训练资源需求
下游任务适配
支持通过微调适应多种自然语言处理任务
Model Capabilities
文本特征提取
上下文理解
语义相似度计算
文本分类
Use Cases
文本分析
情感分析
对用户评论进行情感倾向分类
在标准数据集上达到 90%+ 准确率(推断值)
问答系统
开放域问答
基于给定文本回答用户问题
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 Chinese
R
uer
2,694
98