D

Distilbert Base Uncased Becas 4

Evelyn18によって開発
distilbert-base-uncasedをbecasv2データセットでファインチューニングしたテキスト分類モデル
ダウンロード数 20
リリース時間 : 7/1/2022

モデル概要

このモデルはDistilBERTの軽量版で、becasv2データセットでファインチューニングされており、テキスト分類タスクに適しています。

モデル特徴

軽量アーキテクチャ
DistilBERTアーキテクチャに基づき、標準BERTモデルより軽量で、良好な性能を維持
ドメインファインチューニング
becasv2データセットで特別にファインチューニングされており、特定領域のテキスト分類タスクに適応

モデル能力

テキスト分類
自然言語理解

使用事例

テキスト分析
ドメイン固有テキスト分類
becasv2データセット関連領域のテキストを分類
評価セットで3.1357の損失値を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase