D

Distilbert Base Uncased Finetuned Ner

mcdzwilによって開発
DistilBERTに基づく軽量な命名エンティティ認識モデルで、特定のデータセットで微調整され、英文テキストのエンティティ認識タスクに適しています。
ダウンロード数 15
リリース時間 : 3/2/2022

モデル概要

このモデルはDistilBERTの軽量版で、命名エンティティ認識(NER)タスクに微調整されています。高い性能を維持しながら、モデルサイズと計算リソースの要件を削減しています。

モデル特徴

軽量で効率的
DistilBERTアーキテクチャに基づいており、標準のBERTモデルより40%小さく、60%高速で、同時に97%の性能を保持しています。
高精度認識
評価セットで91.71%の精度と80.03%のF1値を達成し、優れた性能を発揮します。
デプロイが容易
モデルのサイズが小さく、本番環境でのデプロイに適しており、ハードウェア要件が低いです。

モデル能力

テキストエンティティ認識
英文命名エンティティ抽出
シーケンスラベリング

使用事例

情報抽出
ニュースエンティティ抽出
ニューステキストから人名、地名、組織名などのエンティティを識別して抽出します。
正解率93.16%
医療テキスト処理
医療レポート中の疾病、薬物、症状などの専門用語を識別します。
ビジネスインテリジェンス
顧客フィードバック分析
顧客のコメントから製品名と重要な特徴を抽出します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase