D

Distilbert Base Uncased Finetuned Ner

lucasmtzによって開発
DistilBERTベースの軽量級命名エンティティ認識モデルで、conll2003データセットで微調整されました。
ダウンロード数 14
リリース時間 : 3/2/2022

モデル概要

このモデルはDistilBERTの軽量版で、命名エンティティ認識タスクに特化して微調整されています。CoNLL - 2003データセットで優れた性能を発揮し、英語テキストのエンティティラベリングタスクに適しています。

モデル特徴

高効率で軽量
DistilBERTアーキテクチャに基づいており、標準のBERTモデルよりも小さく、高速で、同時に良好な性能を維持しています。
高精度NER
CoNLL - 2003テストセットで93.1%のF1値を達成し、優れた性能を示しました。
高速推論
蒸留アーキテクチャの設計により、モデルの推論速度が速く、本番環境へのデプロイに適しています。

モデル能力

命名エンティティ認識
テキストタグ分類
エンティティラベリング

使用事例

情報抽出
ニュースエンティティ抽出
ニューステキストから人名、地名、組織名などのエンティティを識別します。
正解率98.3%、F1値93.1%
生物医学テキスト処理
医学文献中の専門用語とエンティティを識別します。
データ前処理
知識グラフ構築
知識グラフ構築のためのエンティティ認識前処理を提供します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase