🚀 QARiB:QCRI阿拉伯語及方言BERT模型
QARiB(QCRI阿拉伯語及方言BERT)是一個在約4.2億條推文和約1.8億個文本句子上訓練的模型。該模型在多個NLP下游任務中表現出色,可用於掩碼語言建模、下一句預測等任務,也可針對特定下游任務進行微調。
✨ 主要特性
- 多源數據訓練:使用推特API收集推文數據,並結合了阿拉伯語千兆詞庫、Abulkhair阿拉伯語語料庫和OPUS等文本數據。
- 高性能表現:在情感分析、情緒檢測、命名實體識別(NER)、冒犯性語言檢測和方言識別等五個NLP下游任務的評估中,QARiB模型的表現優於多語言BERT、AraBERT和ArabicBERT。
📦 安裝指南
文檔未提供安裝步驟,可參考相關代碼庫獲取安裝信息。
💻 使用示例
基礎用法
你可以直接使用這個模型進行掩碼語言建模:
>>>from transformers import pipeline
>>>fill_mask = pipeline("fill-mask", model="./models/data60gb_86k")
>>> fill_mask("شو عندكم يا [MASK]")
[{'sequence': '[CLS] شو عندكم يا عرب [SEP]', 'score': 0.0990147516131401, 'token': 2355, 'token_str': 'عرب'},
{'sequence': '[CLS] شو عندكم يا جماعة [SEP]', 'score': 0.051633741706609726, 'token': 2308, 'token_str': 'جماعة'},
{'sequence': '[CLS] شو عندكم يا شباب [SEP]', 'score': 0.046871256083250046, 'token': 939, 'token_str': 'شباب'},
{'sequence': '[CLS] شو عندكم يا رفاق [SEP]', 'score': 0.03598872944712639, 'token': 7664, 'token_str': 'رفاق'},
{'sequence': '[CLS] شو عندكم يا ناس [SEP]', 'score': 0.031996358186006546, 'token': 271, 'token_str': 'ناس'}]
>>> fill_mask("قللي وشفيييك يرحم [MASK]")
[{'sequence': '[CLS] قللي وشفيييك يرحم والديك [SEP]', 'score': 0.4152909517288208, 'token': 9650, 'token_str': 'والديك'},
{'sequence': '[CLS] قللي وشفيييك يرحملي [SEP]', 'score': 0.07663793861865997, 'token': 294, 'token_str': '##لي'},
{'sequence': '[CLS] قللي وشفيييك يرحم حالك [SEP]', 'score': 0.0453166700899601, 'token': 2663, 'token_str': 'حالك'},
{'sequence': '[CLS] قللي وشفيييك يرحم امك [SEP]', 'score': 0.04390475153923035, 'token': 1942, 'token_str': 'امك'},
{'sequence': '[CLS] قللي وشفيييك يرحمونك [SEP]', 'score': 0.027349254116415977, 'token': 3283, 'token_str': '##ونك'}]
>>> fill_mask("وقام المدير [MASK]")
[
{'sequence': '[CLS] وقام المدير بالعمل [SEP]', 'score': 0.0678194984793663, 'token': 4230, 'token_str': 'بالعمل'},
{'sequence': '[CLS] وقام المدير بذلك [SEP]', 'score': 0.05191086605191231, 'token': 984, 'token_str': 'بذلك'},
{'sequence': '[CLS] وقام المدير بالاتصال [SEP]', 'score': 0.045264165848493576, 'token': 26096, 'token_str': 'بالاتصال'},
{'sequence': '[CLS] وقام المدير بعمله [SEP]', 'score': 0.03732728958129883, 'token': 40486, 'token_str': 'بعمله'},
{'sequence': '[CLS] وقام المدير بالامر [SEP]', 'score': 0.0246378555893898, 'token': 29124, 'token_str': 'بالامر'}
]
>>> fill_mask("وقامت المديرة [MASK]")
[{'sequence': '[CLS] وقامت المديرة بذلك [SEP]', 'score': 0.23992691934108734, 'token': 984, 'token_str': 'بذلك'},
{'sequence': '[CLS] وقامت المديرة بالامر [SEP]', 'score': 0.108805812895298, 'token': 29124, 'token_str': 'بالامر'},
{'sequence': '[CLS] وقامت المديرة بالعمل [SEP]', 'score': 0.06639821827411652, 'token': 4230, 'token_str': 'بالعمل'},
{'sequence': '[CLS] وقامت المديرة بالاتصال [SEP]', 'score': 0.05613093823194504, 'token': 26096, 'token_str': 'بالاتصال'},
{'sequence': '[CLS] وقامت المديرة المديرة [SEP]', 'score': 0.021778125315904617, 'token': 41635, 'token_str': 'المديرة'}]
📚 詳細文檔
- 訓練詳情:模型使用谷歌原始的TensorFlow代碼在谷歌雲TPU v2上進行訓練,並使用谷歌雲存儲桶持久存儲訓練數據和模型。更多詳細信息請參考QARiB訓練文檔。
- 使用說明:你可以使用原始模型進行掩碼語言建模或下一句預測,但該模型主要用於在下游任務上進行微調。更多詳細信息請參考QARiB使用文檔。
🔧 技術細節
bert-base-qarib60_860k模型參數
屬性 |
詳情 |
數據規模 |
60GB |
迭代次數 |
860k |
損失值 |
2.2454472 |
訓練過程
模型使用谷歌原始的TensorFlow代碼在八核心谷歌雲TPU v2上進行訓練,並使用谷歌雲存儲桶持久存儲訓練數據和模型。
評估結果
模型在五個NLP下游任務上進行了評估:
- 情感分析
- 情緒檢測
- 命名實體識別(NER)
- 冒犯性語言檢測
- 方言識別
評估結果顯示,QARiB模型的表現優於多語言BERT、AraBERT和ArabicBERT。
📄 許可證
文檔未提及許可證信息。
📥 模型權重和詞表下載
你可以從Huggingface網站下載模型權重和詞表:https://huggingface.co/qarib/bert-base-qarib60_860k
📞 聯繫方式
如果你有任何問題,可以聯繫以下人員:Ahmed Abdelali、Sabit Hassan、Hamdy Mubarak、Kareem Darwish和Younes Samih。
📖 參考文獻
@article{abdelali2021pretraining,
title={Pre-Training BERT on Arabic Tweets: Practical Considerations},
author={Ahmed Abdelali and Sabit Hassan and Hamdy Mubarak and Kareem Darwish and Younes Samih},
year={2021},
eprint={2102.10684},
archivePrefix={arXiv},
primaryClass={cs.CL}
}