B

Bert Base Uncased Finetuned Quac

Developed by OrfeasTsk
基于Transformer架构的预训练语言模型,适用于多种NLP任务
Downloads 25
Release Time : 3/9/2022

Model Overview

双向Transformer编码器模型,通过大规模语料预训练获得通用语言理解能力

Model Features

双向上下文理解
通过MLM预训练任务实现双向语境编码
迁移学习友好
可通过微调适配下游NLP任务
注意力机制
全连接自注意力层捕捉长距离依赖关系

Model Capabilities

文本特征提取
语义相似度计算
文本分类
问答系统
命名实体识别

Use Cases

文本分析
情感分析
对用户评论进行正面/负面情感分类
典型准确率>90%(推断值)
信息抽取
实体识别
从文本中提取人名/地名/组织名等实体
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase