D

Distilbert Base Uncased Finetuned Ner

Udi-Aharonによって開発
このモデルはDistilBERTの軽量版をベースとしており、conll2003データセットで固有表現抽出タスク向けにファインチューニングされています。
ダウンロード数 15
リリース時間 : 5/10/2022

モデル概要

これは固有表現抽出(NER)タスク向けにファインチューニングされたDistilBERTモデルで、conll2003データセットで優れた性能を発揮します。

モデル特徴

効率的で軽量
DistilBERTアーキテクチャを採用しており、標準BERTモデルよりも軽量で効率的でありながら良好な性能を維持しています。
高精度NER
conll2003データセットで92.4%の精度と93.5%の再現率を達成しています。
高速推論
DistilBERTアーキテクチャを採用しているため、完全なBERTモデルよりも推論速度が速いです。

モデル能力

固有表現抽出
テキストトークン分類
エンティティ抽出

使用事例

情報抽出
ニュースエンティティ抽出
ニューステキストから人名、地名、組織名などのエンティティを識別
F1値が0.9295を達成
ドキュメント分析
法律や医療文書における重要なエンティティ認識の処理
データ前処理
知識グラフ構築
知識グラフ構築のためのエンティティ情報抽出
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase