D

Distilbert Base Uncased Becas 1

Evelyn18によって開発
distilbert-base-uncasedをbecasv2データセットでファインチューニングしたテキスト分類モデル
ダウンロード数 18
リリース時間 : 6/29/2022

モデル概要

このモデルはDistilBERTのファインチューニング版で、主にテキスト分類タスクに使用されます。becasv2データセットで訓練され、検証損失は3.8655です。

モデル特徴

効率的で軽量
DistilBERTアーキテクチャに基づいており、標準のBERTモデルよりも軽量で効率的です
ファインチューニング最適化
特定のデータセット(becasv2)でファインチューニングされており、特定の分野タスクでより良い性能を発揮する可能性があります

モデル能力

テキスト分類
自然言語理解

使用事例

テキスト分析
テキスト分類
英語テキストの分類に使用可能
検証損失3.8655
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase