D

Distilbert Base Uncased Finetuned Ner

IsaMaksによって開発
DistilBERTベースの軽量固有表現抽出モデル、特定データセットでファインチューニング済み
ダウンロード数 15
リリース時間 : 6/24/2022

モデル概要

このモデルはDistilBERTの軽量版で、固有表現抽出(NER)タスク向けに特別にファインチューニングされています。元モデルの効率性を保持しつつ、特定の固有表現抽出タスク向けに最適化されています。

モデル特徴

軽量で効率的
DistilBERTアーキテクチャ採用、標準BERTモデルより小型高速で良好な性能を維持
特定領域ファインチューニング
固有表現抽出タスク向けに特別に最適化
多カテゴリ認識
複数のエンティティタイプを認識可能(評価データでは少なくとも3種類のエンティティカテゴリを確認)

モデル能力

テキストエンティティ認識
固有表現分類
系列ラベリング

使用事例

情報抽出
ドキュメントエンティティ抽出
非構造化テキストから固有表現を識別・分類
知識グラフ構築
知識グラフ向けにエンティティ情報を自動抽出
テキスト分析
ニュース分析
ニュース記事中の重要人物・組織・場所を識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase