🚀 ModernBERT命名實體識別(CoNLL2003)
本模型是 answerdotai/ModernBERT-base 在CoNLL2003數據集上針對命名實體識別(NER)任務進行微調後的版本。
在識別人物
、組織
和地點
等實體的任務中表現出色。
該模型在評估集上取得了以下成績:
- 損失率:0.0992
- 精確率:0.8349
- 召回率:0.8563
- F1值:0.8455
- 準確率:0.9752
✨ 主要特性
- 強大的實體識別能力:能夠準確識別文本中的人物、組織和地點等命名實體。
- 基於優質基礎模型:以ModernBERT為基礎,在CoNLL2003數據集上進行微調,具有良好的泛化能力。
📦 安裝指南
文檔中未提及安裝步驟,可參考Hugging Face Transformers庫的官方安裝指南進行安裝。
💻 使用示例
基礎用法
from transformers import pipeline
ner = pipeline(task="token-classification", model="IsmaelMousa/modernbert-ner-conll2003", aggregation_strategy="max")
results = ner("Hi, I'm Ismael Mousa from Palestine working for NVIDIA inc.")
for entity in results:
for key, value in entity.items():
if key == "entity_group":
print(f"{entity['word']} => {entity[key]}")
運行上述代碼,輸出結果如下:
Ismael Mousa => PER
Palestine => LOC
NVIDIA => ORG
📚 詳細文檔
模型詳情
訓練數據
該模型在CoNLL2003數據集上進行了微調,這是一個著名的命名實體識別基準數據集。此數據集為模型在通用英文文本上的泛化提供了堅實的基礎。
訓練超參數
以下是訓練過程中使用的超參數:
- 學習率:1e-06
- 訓練批次大小:8
- 評估批次大小:8
- 隨機種子:42
- 優化器:使用adamw_torch,β值為(0.9, 0.999),ε值為1e-08,無額外優化器參數
- 學習率調度器類型:線性
- 訓練輪數:10
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
精確率 |
召回率 |
F1值 |
準確率 |
0.2306 |
1.0 |
1756 |
0.2243 |
0.6074 |
0.6483 |
0.6272 |
0.9406 |
0.1415 |
2.0 |
3512 |
0.1583 |
0.7258 |
0.7536 |
0.7394 |
0.9583 |
0.1143 |
3.0 |
5268 |
0.1335 |
0.7731 |
0.7989 |
0.7858 |
0.9657 |
0.0913 |
4.0 |
7024 |
0.1145 |
0.7958 |
0.8256 |
0.8104 |
0.9699 |
0.0848 |
5.0 |
8780 |
0.1079 |
0.8120 |
0.8408 |
0.8261 |
0.9720 |
0.0728 |
6.0 |
10536 |
0.1036 |
0.8214 |
0.8452 |
0.8331 |
0.9730 |
0.0623 |
7.0 |
12292 |
0.1032 |
0.8258 |
0.8487 |
0.8371 |
0.9737 |
0.0599 |
8.0 |
14048 |
0.0990 |
0.8289 |
0.8527 |
0.8406 |
0.9745 |
0.0558 |
9.0 |
15804 |
0.0998 |
0.8331 |
0.8541 |
0.8434 |
0.9750 |
0.0559 |
10.0 |
17560 |
0.0992 |
0.8349 |
0.8563 |
0.8455 |
0.9752 |
框架版本
- Transformers 4.48.0.dev0
- Pytorch 2.2.1+cu121
- Datasets 3.2.0
- Tokenizers 0.21.0
📄 許可證
本項目採用Apache-2.0許可證。