D

Distilbert Base Uncased Becas 5

Evelyn18によって開発
このモデルはdistilbert-base-uncasedをbecasv2データセットでファインチューニングしたバージョンで、主にテキスト分類や関連タスクに使用されます。
ダウンロード数 16
リリース時間 : 7/1/2022

モデル概要

DistilBERTベースの軽量モデルで、特定のデータセットでファインチューニングされており、自然言語処理タスクに適しています。

モデル特徴

軽量モデル
DistilBERTアーキテクチャをベースにしており、標準BERTモデルよりも軽量で、リソースが限られた環境に適しています。
特定ドメインファインチューニング
becasv2データセットでファインチューニングされており、関連分野でより良いパフォーマンスを発揮する可能性があります。
効率的なトレーニング
わずか10エポックのトレーニングで良好な結果が得られ、トレーニング効率が高いです。

モデル能力

テキスト分類
自然言語理解

使用事例

教育分野
学術テキスト分類
教育関連テキストの分類タスクに適用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase