D

Distilbert NER

dslimによって開発
DistilBERTをファインチューニングした軽量な固有表現認識モデル、性能と効率のバランス
ダウンロード数 48.95k
リリース時間 : 1/25/2024

モデル概要

固有表現認識タスク向けに最適化された蒸留版BERTモデル、LOC/ORG/PER/MISCの4種類のエンティティを認識可能

モデル特徴

軽量で効率的
パラメータ数は66Mのみ、オリジナルBERT比40%削減、推論速度が速い
4種類のエンティティ認識
場所(LOC)、組織(ORG)、人物(PER)、その他(MISC)エンティティを正確に認識
CoNLL-2003ベンチマーク
標準NERデータセットでファインチューニング、F1値0.9217達成

モデル能力

テキストエンティティ認識
連続エンティティ境界検出
ニュース分野のエンティティ抽出

使用事例

情報抽出
ニューステキスト分析
ニュース記事から組織、人名、地理的位置を抽出
入出力例はモデルカードを参照
知識グラフ構築
エンティティ関係抽出
知識グラフ構築の前段階としてのエンティティ認識モジュール
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase