B

Bert Base Multilingual Cased Finetuned Squad

Developed by salti
這是一個基於多語言BERT模型在斯坦福問答數據集(SQuADv1.1)上微調的問答模型,支持多種語言的閱讀理解任務。
Downloads 28
Release Time : 3/2/2022

Model Overview

該模型通過在多語言BERT基礎上進行微調,能夠處理多種語言的問答任務,在SQuADv1.1上表現出色,並具備跨語言遷移能力。

Model Features

多語言支持
模型支持多種語言的問答任務,包括但不限於阿拉伯語、英語、中文等11種語言。
跨語言遷移能力
在XQuAD跨語言問答基準測試中表現出良好的零樣本遷移能力。
高效訓練
採用混合精度訓練和梯度累積等技術,在Tesla P100 GPU上高效完成訓練。

Model Capabilities

多語言問答
閱讀理解
跨語言遷移學習
文本理解

Use Cases

教育
多語言學習輔助
幫助學生理解不同語言的閱讀材料並回答問題
客戶服務
多語言FAQ系統
構建支持多種語言的自動問答系統
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase