🚀 finance-ner-v0.0.8-finetuned-ner
本模型是在None數據集上對dslim/bert-base-NER進行微調後的版本。它在評估集上取得了出色的成績,能夠精準地識別金融領域的命名實體,為金融信息處理提供了高效且準確的解決方案。
🚀 快速開始
此模型可直接在Hugging Face平臺上使用,你可以通過以下代碼加載並使用該模型:
from transformers import AutoModelForTokenClassification, AutoTokenizer
model_name = "finance-ner-v0.0.8-finetuned-ner"
model = AutoModelForTokenClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
✨ 主要特性
- 高精度識別:在評估集上,該模型實現了近乎完美的準確率,損失僅為0.0001,準確率達到了1.0000。
- 多指標優秀:在精確率、召回率和F1分數等多個關鍵指標上都表現出色,精確率為0.9994,召回率為0.9997,F1分數為0.9995。
📦 安裝指南
使用此模型需要安裝必要的庫,你可以使用以下命令進行安裝:
pip install transformers datasets torch tokenizers
💻 使用示例
基礎用法
from transformers import AutoModelForTokenClassification, AutoTokenizer
import torch
model_name = "finance-ner-v0.0.8-finetuned-ner"
model = AutoModelForTokenClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
text = "This is a financial text."
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
logits = outputs.logits
predictions = torch.argmax(logits, dim=2)
高級用法
from transformers import AutoModelForTokenClassification, AutoTokenizer
import torch
model_name = "finance-ner-v0.0.8-finetuned-ner"
model = AutoModelForTokenClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
text = "This is a financial text."
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
logits = outputs.logits
predictions = torch.argmax(logits, dim=2)
def convert_predictions_to_labels(predictions, id2label):
labels = []
for pred in predictions[0].tolist():
labels.append(id2label[pred])
return labels
id2label = model.config.id2label
labels = convert_predictions_to_labels(predictions, id2label)
print(labels)
📚 詳細文檔
模型描述
本模型是基於dslim/bert-base-NER進行微調得到的,在金融命名實體識別任務上進行了優化。
預期用途與限制
該模型主要用於金融領域的命名實體識別任務,但目前文檔中關於具體的使用場景和限制還需要進一步補充。
訓練和評估數據
目前文檔中關於訓練和評估數據的詳細信息還需要進一步補充。
🔧 技術細節
訓練超參數
在訓練過程中使用了以下超參數:
屬性 |
詳情 |
學習率 |
2e-05 |
訓練批次大小 |
8 |
評估批次大小 |
8 |
隨機種子 |
42 |
梯度累積步數 |
2 |
總訓練批次大小 |
16 |
優化器 |
Adam,betas=(0.9,0.999),epsilon=1e-08 |
學習率調度器類型 |
線性 |
訓練輪數 |
1 |
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
精確率 |
召回率 |
F1分數 |
準確率 |
0.0 |
1.0 |
4176 |
0.0001 |
0.9993 |
0.9998 |
0.9996 |
1.0000 |
框架版本
- Transformers 4.30.2
- Pytorch 2.0.0
- Datasets 2.1.0
- Tokenizers 0.13.3
📄 許可證
本模型採用MIT許可證。