B

Bert Multi Cased Finetuned Xquadv1

由 mrm8488 开发
基于Google BERT基础多语言模型,在11种语言的问答数据集上微调,支持跨语言问答任务
下载量 1,100
发布时间 : 3/2/2022

模型简介

该模型是基于BERT基础多语言版在XQuAD等数据集上微调的问答模型,支持11种语言的问答任务,包括阿拉伯语、德语、希腊语、英语、西班牙语、印地语、俄语、泰语、土耳其语、越南语和中文。

模型特点

多语言支持
支持11种不同语言的问答任务,包括亚洲、欧洲和中东地区的主要语言
跨语言迁移能力
基于XQuAD数据集微调,专注于跨语言问答任务的迁移学习
高效推理
基于BERT基础架构,在保持较高准确率的同时具有相对较小的模型尺寸

模型能力

多语言问答
跨语言文本理解
上下文相关答案提取

使用案例

多语言客服系统
多语言FAQ自动回答
为不同语言的用户提供基于知识库的自动问答服务
可准确识别问题并从上下文中提取相关答案
教育应用
多语言阅读理解辅助
帮助学生理解不同语言的文本并回答问题
可提供准确的答案定位和提取
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase