B

Bert Base Multilingual Cased Finetuned Amharic

由Davlan開發
基於多語言BERT微調的阿姆哈拉語模型,通過替換詞彙表並微調獲得,在NER任務上優於原生多語言模型
下載量 196
發布時間 : 3/2/2022

模型概述

該模型是基於阿姆哈拉語語料庫微調的BERT模型,專門針對阿姆哈拉語文本處理任務優化,尤其在命名實體識別任務上表現優異

模型特點

阿姆哈拉語專用詞彙表
替換了原mBERT不支持的阿姆哈拉語詞彙表,顯著提升對阿姆哈拉語文本的理解能力
NER任務性能優勢
在MasakhaNER數據集上的F1分數達60.89,顯著優於原生多語言BERT模型
高效微調
基於預訓練的多語言BERT模型進行高效微調,節省訓練資源

模型能力

阿姆哈拉語文本理解
掩碼詞預測
命名實體識別

使用案例

自然語言處理
阿姆哈拉語文本分析
處理阿姆哈拉語新聞文章等文本內容
在NER任務上F1分數達60.89
語言模型應用
用於阿姆哈拉語的掩碼詞預測等任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase