🚀 finance-ner-v0.0.8-finetuned-ner
本模型是在None数据集上对dslim/bert-base-NER进行微调后的版本。它在评估集上取得了出色的成绩,能够精准地识别金融领域的命名实体,为金融信息处理提供了高效且准确的解决方案。
🚀 快速开始
此模型可直接在Hugging Face平台上使用,你可以通过以下代码加载并使用该模型:
from transformers import AutoModelForTokenClassification, AutoTokenizer
model_name = "finance-ner-v0.0.8-finetuned-ner"
model = AutoModelForTokenClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
✨ 主要特性
- 高精度识别:在评估集上,该模型实现了近乎完美的准确率,损失仅为0.0001,准确率达到了1.0000。
- 多指标优秀:在精确率、召回率和F1分数等多个关键指标上都表现出色,精确率为0.9994,召回率为0.9997,F1分数为0.9995。
📦 安装指南
使用此模型需要安装必要的库,你可以使用以下命令进行安装:
pip install transformers datasets torch tokenizers
💻 使用示例
基础用法
from transformers import AutoModelForTokenClassification, AutoTokenizer
import torch
model_name = "finance-ner-v0.0.8-finetuned-ner"
model = AutoModelForTokenClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
text = "This is a financial text."
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
logits = outputs.logits
predictions = torch.argmax(logits, dim=2)
高级用法
from transformers import AutoModelForTokenClassification, AutoTokenizer
import torch
model_name = "finance-ner-v0.0.8-finetuned-ner"
model = AutoModelForTokenClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
text = "This is a financial text."
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
logits = outputs.logits
predictions = torch.argmax(logits, dim=2)
def convert_predictions_to_labels(predictions, id2label):
labels = []
for pred in predictions[0].tolist():
labels.append(id2label[pred])
return labels
id2label = model.config.id2label
labels = convert_predictions_to_labels(predictions, id2label)
print(labels)
📚 详细文档
模型描述
本模型是基于dslim/bert-base-NER进行微调得到的,在金融命名实体识别任务上进行了优化。
预期用途与限制
该模型主要用于金融领域的命名实体识别任务,但目前文档中关于具体的使用场景和限制还需要进一步补充。
训练和评估数据
目前文档中关于训练和评估数据的详细信息还需要进一步补充。
🔧 技术细节
训练超参数
在训练过程中使用了以下超参数:
属性 |
详情 |
学习率 |
2e-05 |
训练批次大小 |
8 |
评估批次大小 |
8 |
随机种子 |
42 |
梯度累积步数 |
2 |
总训练批次大小 |
16 |
优化器 |
Adam,betas=(0.9,0.999),epsilon=1e-08 |
学习率调度器类型 |
线性 |
训练轮数 |
1 |
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
精确率 |
召回率 |
F1分数 |
准确率 |
0.0 |
1.0 |
4176 |
0.0001 |
0.9993 |
0.9998 |
0.9996 |
1.0000 |
框架版本
- Transformers 4.30.2
- Pytorch 2.0.0
- Datasets 2.1.0
- Tokenizers 0.13.3
📄 许可证
本模型采用MIT许可证。