B

Bert Base Multilingual Cased Finetuned Squad

saltiによって開発
これは多言語BERTモデルをスタンフォード質問応答データセット(SQuADv1.1)で微調整した質問応答モデルで、複数の言語の読解タスクをサポートします。
ダウンロード数 28
リリース時間 : 3/2/2022

モデル概要

このモデルは多言語BERTをベースに微調整され、複数の言語の質問応答タスクを処理でき、SQuADv1.1で優れた性能を発揮し、言語横断移行能力を備えています。

モデル特徴

多言語サポート
モデルはアラビア語、英語、中国語など11種類の言語を含む複数の言語の質問応答タスクをサポートします。
言語横断移行能力
XQuAD言語横断質問応答ベンチマークテストで良好なゼロショット移行能力を示します。
効率的なトレーニング
混合精度トレーニングと勾配累積などの技術を採用し、Tesla P100 GPUで効率的にトレーニングを完了します。

モデル能力

多言語質問応答
読解
言語横断移行学習
テキスト理解

使用事例

教育
多言語学習支援
学生が異なる言語の読み物を理解し、質問に答えるのを支援します
カスタマーサービス
多言語FAQシステム
複数の言語をサポートする自動質問応答システムを構築します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase