Distilbert Base Uncased Finetuned Ner
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
Downloads 15
Release Time : 3/2/2022
Model Overview
このモデルはDistilBERTのファインチューン版で、固有表現抽出(NER)タスク専用に設計されており、テキスト中の人名、地名、組織名などの実体を識別できます。
Model Features
効率的で軽量
DistilBERTアーキテクチャ採用により、標準BERTモデルより小型で高速、かつ高い精度を維持
高精度
conll2003テストセットでF1値0.9366、精度0.9845を達成
高速推論
蒸留モデル設計により、完全版BERTモデルより高速な推論が可能
Model Capabilities
固有表現抽出
テキストトークン分類
実体抽出
Use Cases
情報抽出
ニュース実体抽出
ニューステキストから人名、地名、組織名などの主要な実体を抽出
テキスト中の各種固有表現を正確に識別可能
ドキュメント分析
法律文書やビジネスレポートを処理し、重要な実体情報を抽出
ドキュメント索引や知識グラフの迅速な構築を支援
データ前処理
NLPパイプライン前処理
質問応答システムや検索エンジン向けに実体認識前処理を提供
下流タスクの性能向上に寄与
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98