D

Distilbert Base Uncased Finetuned Ner

ACSHCSEによって開発
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
ダウンロード数 15
リリース時間 : 4/12/2022

モデル概要

このモデルはDistilBERTの軽量版で、固有表現抽出(NER)タスク向けに特別にファインチューニングされています。標準のconll2003データセットで優れた性能を発揮し、テキスト中のエンティティ認識タスクに適しています。

モデル特徴

高効率軽量
DistilBERTアーキテクチャ採用、標準BERTモデル比40%小型化、95%の性能を維持
高精度NER
conll2003データセットで92.9%のF1値を達成、優れた性能
高速推論
蒸留モデルアーキテクチャにより推論速度向上、本番環境展開に適している

モデル能力

固有表現抽出
テキストトークン分類
エンティティ境界検出
エンティティタイプ分類

使用事例

情報抽出
ニュース記事エンティティ抽出
ニューステキストから人名、地名、組織名などのエンティティを識別
テキスト中の命名エンティティを正確に識別可能、F1値92.9%達成
文書自動処理
契約書や法律文書から主要エンティティ情報を自動抽出
知識グラフ構築
知識グラフエンティティ抽出
非構造化テキストから知識グラフ構築用エンティティを抽出
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase