D

Distilbert Base Uncased Becasv2 1

Evelyn18によって開発
distilbert-base-uncasedモデルをbecasv2データセットでファインチューニングしたバージョンで、主にテキスト関連タスクに使用されます。
ダウンロード数 16
リリース時間 : 7/7/2022

モデル概要

このモデルはDistilBERTのファインチューニング版で、テキスト分類やその他の自然言語処理タスクに適しています。具体的な用途はbecasv2データセットの性質に基づいてさらに確認する必要があります。

モデル特徴

軽量BERT
DistilBERTアーキテクチャに基づいており、標準BERTよりも軽量で、良好な性能を維持します
ドメイン適応
becasv2データセットでファインチューニングされており、特定のドメイン適応能力を持つ可能性があります
効率的なトレーニング
わずか10エポックのトレーニングで良好な効果を達成できます

モデル能力

テキスト分類
自然言語理解
テキスト特徴抽出

使用事例

テキスト分析
テキスト分類
特定のドメインのテキスト分類タスクに使用できます
検証損失2.9472
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase