B

Bert Base Multilingual Cased Finetuned Squad

由 salti 开发
这是一个基于多语言BERT模型在斯坦福问答数据集(SQuADv1.1)上微调的问答模型,支持多种语言的阅读理解任务。
下载量 28
发布时间 : 3/2/2022

模型简介

该模型通过在多语言BERT基础上进行微调,能够处理多种语言的问答任务,在SQuADv1.1上表现出色,并具备跨语言迁移能力。

模型特点

多语言支持
模型支持多种语言的问答任务,包括但不限于阿拉伯语、英语、中文等11种语言。
跨语言迁移能力
在XQuAD跨语言问答基准测试中表现出良好的零样本迁移能力。
高效训练
采用混合精度训练和梯度累积等技术,在Tesla P100 GPU上高效完成训练。

模型能力

多语言问答
阅读理解
跨语言迁移学习
文本理解

使用案例

教育
多语言学习辅助
帮助学生理解不同语言的阅读材料并回答问题
客户服务
多语言FAQ系统
构建支持多种语言的自动问答系统
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase