🚀 ポルトガル語BERTベースケース付きQA(質問応答)、SQUAD v1.1でファインチューニング済み
このモデルは、ポルトガル語の質問応答タスクに特化しており、SQUAD v1.1データセットでファインチューニングされています。高精度な回答を提供し、ポルトガル語の自然言語処理に役立ちます。

🚀 クイックスタート
このモデルは、Deep Learning Brasilグループによって提供されるポルトガル語のSQUAD v1.1データセットを使用して、Google Colab上で学習されました。使用された言語モデルは、Neuralmind.aiのBERTimbau Base(別名 "bert-base-portuguese-cased")です。
✨ 主な機能
- ポルトガル語の質問応答タスクに特化したモデルです。
- SQUAD v1.1データセットでファインチューニングされており、高精度な回答を提供します。
- PipelineやAutoクラスを使用して簡単に利用できます。
📚 ドキュメント
利用方法に関する情報
すべての情報はブログ記事に記載されています: NLP | Modelo de Question Answering em qualquer idioma baseado no BERT base (estudo de caso em português)
Google ColabとGitHubのノートブック
性能
得られた結果は以下の通りです:
f1 = 82.50
exact match = 70.49
💻 使用例
基本的な使用法
import transformers
from transformers import pipeline
context = r"""
A pandemia de COVID-19, também conhecida como pandemia de coronavírus, é uma pandemia em curso de COVID-19,
uma doença respiratória aguda causada pelo coronavírus da síndrome respiratória aguda grave 2 (SARS-CoV-2).
A doença foi identificada pela primeira vez em Wuhan, na província de Hubei, República Popular da China,
em 1 de dezembro de 2019, mas o primeiro caso foi reportado em 31 de dezembro do mesmo ano.
Acredita-se que o vírus tenha uma origem zoonótica, porque os primeiros casos confirmados
tinham principalmente ligações ao Mercado Atacadista de Frutos do Mar de Huanan, que também vendia animais vivos.
Em 11 de março de 2020, a Organização Mundial da Saúde declarou o surto uma pandemia. Até 8 de fevereiro de 2021,
pelo menos 105 743 102 casos da doença foram confirmados em pelo menos 191 países e territórios,
com cerca de 2 308 943 mortes e 58 851 440 pessoas curadas.
"""
model_name = 'pierreguillou/bert-base-cased-squad-v1.1-portuguese'
nlp = pipeline("question-answering", model=model_name)
question = "Quando começou a pandemia de Covid-19 no mundo?"
result = nlp(question=question, context=context)
print(f"Answer: '{result['answer']}', score: {round(result['score'], 4)}, start: {result['start']}, end: {result['end']}")
高度な使用法
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
tokenizer = AutoTokenizer.from_pretrained("pierreguillou/bert-base-cased-squad-v1.1-portuguese")
model = AutoModelForQuestionAnswering.from_pretrained("pierreguillou/bert-base-cased-squad-v1.1-portuguese")
または、モデルリポジトリをクローンすることもできます:
git lfs install
git clone https://huggingface.co/pierreguillou/bert-base-cased-squad-v1.1-portuguese
GIT_LFS_SKIP_SMUDGE=1
🔧 技術詳細
このモデルの学習に使用されたデータはポルトガル語のSQUADから取得されています。このデータには、中立性を欠き、バイアスを含む未フィルターの内容が多く含まれている可能性があります。
📄 ライセンス
このモデルはMITライセンスの下で提供されています。
👨💻 作者
ポルトガル語BERTベースケース付きQA(質問応答)、SQUAD v1.1でファインチューニング済みは、Pierre GUILLOUによって学習および評価されました。多くの組織のオープンソースコード、プラットフォーム、アドバイスのおかげで可能になりました(リストへのリンク)。特に: Hugging Face、Neuralmind.ai、Deep Learning Brasilグループ、Google Colab、およびAI Labです。
📚 引用
このモデルを使用する場合は、以下のように引用してください:
@inproceedings{pierreguillou2021bertbasecasedsquadv11portuguese,
title={Portuguese BERT base cased QA (Question Answering), finetuned on SQUAD v1.1},
author={Pierre Guillou},
year={2021}
}