B

Bert Base Multilingual Cased Finetuned Amharic

Developed by Davlan
基於多語言BERT微調的阿姆哈拉語模型,通過替換詞彙表並微調獲得,在NER任務上優於原生多語言模型
Downloads 196
Release Time : 3/2/2022

Model Overview

該模型是基於阿姆哈拉語語料庫微調的BERT模型,專門針對阿姆哈拉語文本處理任務優化,尤其在命名實體識別任務上表現優異

Model Features

阿姆哈拉語專用詞彙表
替換了原mBERT不支持的阿姆哈拉語詞彙表,顯著提升對阿姆哈拉語文本的理解能力
NER任務性能優勢
在MasakhaNER數據集上的F1分數達60.89,顯著優於原生多語言BERT模型
高效微調
基於預訓練的多語言BERT模型進行高效微調,節省訓練資源

Model Capabilities

阿姆哈拉語文本理解
掩碼詞預測
命名實體識別

Use Cases

自然語言處理
阿姆哈拉語文本分析
處理阿姆哈拉語新聞文章等文本內容
在NER任務上F1分數達60.89
語言模型應用
用於阿姆哈拉語的掩碼詞預測等任務
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase