D

Distilbert Base Uncased Finetuned TT2 Exam

roschmidによって開発
このモデルは、conll2003データセットでファインチューニングされたdistilbert-base-uncasedベースのバージョンで、タグ分類タスクに使用されます。
ダウンロード数 15
リリース時間 : 5/23/2022

モデル概要

このモデルは、タグ分類タスク専用にファインチューニングされたDistilBERTモデルで、conll2003データセットで優れたパフォーマンスを発揮します。

モデル特徴

効率的なファインチューニング
DistilBERTアーキテクチャに基づき、conll2003データセットで効率的にファインチューニングされ、タグ分類の性能が大幅に向上しました。
高性能
評価セットで高い精度(0.9222)、再現率(0.9369)、F1値(0.9295)を達成しました。
軽量
DistilBERTアーキテクチャは、元のBERTモデルと比べて軽量で、リソースが限られた環境に適しています。

モデル能力

タグ分類
自然言語処理
固有表現抽出

使用事例

自然言語処理
固有表現抽出
テキスト内の人名、地名、組織名などの固有表現を識別するために使用されます。
conll2003データセットで優れたパフォーマンスを発揮し、F1値は0.9295に達しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase