D

Distilbert Base Uncased Finetuned Ner

Developed by histinct7002
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
Downloads 15
Release Time : 3/2/2022

Model Overview

このモデルはDistilBERTのファインチューン版で、固有表現抽出(NER)タスク専用に設計されており、テキスト中の人名、地名、組織名などの実体を識別できます。

Model Features

効率的で軽量
DistilBERTアーキテクチャ採用により、標準BERTモデルより小型で高速、かつ高い精度を維持
高精度
conll2003テストセットでF1値0.9366、精度0.9845を達成
高速推論
蒸留モデル設計により、完全版BERTモデルより高速な推論が可能

Model Capabilities

固有表現抽出
テキストトークン分類
実体抽出

Use Cases

情報抽出
ニュース実体抽出
ニューステキストから人名、地名、組織名などの主要な実体を抽出
テキスト中の各種固有表現を正確に識別可能
ドキュメント分析
法律文書やビジネスレポートを処理し、重要な実体情報を抽出
ドキュメント索引や知識グラフの迅速な構築を支援
データ前処理
NLPパイプライン前処理
質問応答システムや検索エンジン向けに実体認識前処理を提供
下流タスクの性能向上に寄与
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase