D

Distilbert Base Uncased Finetuned Ner

kinanmartinによって開発
このモデルはDistilBERTベースの軽量モデルで、玩具データセット上で固有表現抽出(NER)タスクのファインチューニングを行っています。
ダウンロード数 16
リリース時間 : 7/8/2022

モデル概要

このモデルは玩具データセット上でdistilbert-base-uncasedをファインチューニングしたバージョンで、主にトークン分類タスク(固有表現抽出など)に使用されます。

モデル特徴

軽量モデル
DistilBERTアーキテクチャをベースにしており、元のBERTモデルよりも小さく高速で、高い性能を維持しています。
高精度
評価セットで0.9640の精度と0.8544のF1値を達成し、優れた性能を示しています。
効率的な学習
わずか3エポックの学習で良好な性能に達し、学習効率が高いです。

モデル能力

固有表現抽出
トークン分類

使用事例

テキスト処理
固有表現抽出
テキストから人名、地名、組織名などの固有表現を識別・分類します。
玩具データセットで0.8544のF1値を達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase