🚀 finance-ner-v0.0.8-finetuned-ner
このモデルは、Noneデータセットでdslim/bert-base-NERをファインチューニングしたバージョンです。評価セットで優れた成績を収め、金融分野の命名エンティティを正確に識別でき、金融情報処理に効率的かつ正確な解決策を提供します。
🚀 クイックスタート
このモデルは、Hugging Faceプラットフォームで直接使用できます。以下のコードを使ってモデルをロードして使用できます。
from transformers import AutoModelForTokenClassification, AutoTokenizer
model_name = "finance-ner-v0.0.8-finetuned-ner"
model = AutoModelForTokenClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
✨ 主な機能
- 高精度識別:評価セットで、このモデルはほぼ完璧な正解率を達成し、損失はわずか0.0001で、正解率は1.0000に達しました。
- 多指標での優秀性:適合率、再現率、F1スコアなどの複数の重要な指標で優れた性能を発揮し、適合率は0.9994、再現率は0.9997、F1スコアは0.9995です。
📦 インストール
このモデルを使用するには、必要なライブラリをインストールする必要があります。以下のコマンドを使用してインストールできます。
pip install transformers datasets torch tokenizers
💻 使用例
基本的な使用法
from transformers import AutoModelForTokenClassification, AutoTokenizer
import torch
model_name = "finance-ner-v0.0.8-finetuned-ner"
model = AutoModelForTokenClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
text = "This is a financial text."
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
logits = outputs.logits
predictions = torch.argmax(logits, dim=2)
高度な使用法
from transformers import AutoModelForTokenClassification, AutoTokenizer
import torch
model_name = "finance-ner-v0.0.8-finetuned-ner"
model = AutoModelForTokenClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
text = "This is a financial text."
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
logits = outputs.logits
predictions = torch.argmax(logits, dim=2)
def convert_predictions_to_labels(predictions, id2label):
labels = []
for pred in predictions[0].tolist():
labels.append(id2label[pred])
return labels
id2label = model.config.id2label
labels = convert_predictions_to_labels(predictions, id2label)
print(labels)
📚 ドキュメント
モデルの説明
このモデルは、dslim/bert-base-NERをファインチューニングして得られたもので、金融命名エンティティ識別タスクに最適化されています。
想定用途と制限
このモデルは主に金融分野の命名エンティティ識別タスクに使用されますが、現在のドキュメントでは具体的な使用シーンと制限に関する詳細情報が不足しています。
学習と評価データ
現在のドキュメントでは、学習と評価データに関する詳細情報が不足しています。
🔧 技術詳細
学習ハイパーパラメータ
学習過程では、以下のハイパーパラメータが使用されました。
属性 |
詳細 |
学習率 |
2e-05 |
学習バッチサイズ |
8 |
評価バッチサイズ |
8 |
乱数シード |
42 |
勾配累積ステップ数 |
2 |
総学習バッチサイズ |
16 |
オプティマイザ |
Adam,betas=(0.9,0.999),epsilon=1e-08 |
学習率スケジューラタイプ |
線形 |
学習エポック数 |
1 |
学習結果
学習損失 |
エポック |
ステップ |
検証損失 |
適合率 |
再現率 |
F1スコア |
正解率 |
0.0 |
1.0 |
4176 |
0.0001 |
0.9993 |
0.9998 |
0.9996 |
1.0000 |
フレームワークバージョン
- Transformers 4.30.2
- Pytorch 2.0.0
- Datasets 2.1.0
- Tokenizers 0.13.3
📄 ライセンス
このモデルはMITライセンスの下で提供されています。