🚀 多語言大小寫BERT基礎模型微調豪薩語版
本模型是在豪薩語文本上對多語言大小寫BERT基礎模型進行微調得到的豪薩語BERT模型,在文本分類和命名實體識別數據集上,比多語言BERT模型表現更優。
🚀 快速開始
如何使用
你可以使用Transformers庫的pipeline
來使用該模型進行掩碼標記預測。
>>> from transformers import pipeline
>>> unmasker = pipeline('fill-mask', model='Davlan/bert-base-multilingual-cased-finetuned-hausa')
>>> unmasker("Shugaban [MASK] Muhammadu Buhari ya amince da shawarar da ma’aikatar sufuri karkashin jagoranci")
[{'sequence':
'[CLS] Shugaban Nigeria Muhammadu Buhari ya amince da shawarar da ma [UNK] aikatar sufuri karkashin jagoranci [SEP]',
'score': 0.9762618541717529,
'token': 22045,
'token_str': 'Nigeria'},
{'sequence': '[CLS] Shugaban Ka Muhammadu Buhari ya amince da shawarar da ma [UNK] aikatar sufuri karkashin jagoranci [SEP]', 'score': 0.007239189930260181,
'token': 25444,
'token_str': 'Ka'},
{'sequence': '[CLS] Shugaban, Muhammadu Buhari ya amince da shawarar da ma [UNK] aikatar sufuri karkashin jagoranci [SEP]', 'score': 0.001990817254409194,
'token': 117,
'token_str': ','},
{'sequence': '[CLS] Shugaban Ghana Muhammadu Buhari ya amince da shawarar da ma [UNK] aikatar sufuri karkashin jagoranci [SEP]', 'score': 0.001566368737258017,
'token': 28682,
'token_str': 'Ghana'},
{'sequence': '[CLS] Shugabanmu Muhammadu Buhari ya amince da shawarar da ma [UNK] aikatar sufuri karkashin jagoranci [SEP]', 'score': 0.0009375187801197171,
'token': 11717,
'token_str': '##mu'}]
✨ 主要特性
多語言大小寫BERT基礎模型微調豪薩語版是通過在豪薩語文本上對多語言大小寫BERT基礎模型進行微調得到的豪薩語BERT模型。在文本分類和命名實體識別數據集上,它比多語言BERT模型具有更優的性能。
具體而言,該模型是在豪薩語語料庫上微調的多語言大小寫BERT基礎模型。
🔧 技術細節
預期用途與侷限性
侷限性和偏差
該模型受限於其特定時間段內帶實體標註的新聞文章訓練數據集,可能無法在不同領域的所有用例中很好地泛化。
訓練數據
該模型在豪薩語CC - 100上進行了微調。
訓練過程
該模型在單塊NVIDIA V100 GPU上進行訓練。
測試集評估結果(F分數,5次運行的平均值)
BibTeX引用和引用信息
作者:David Adelani