D

Distilbert Base Uncased Becas 2

Evelyn18によって開発
distilbert-base-uncasedをbecasv2データセットでファインチューニングしたモデル、検証損失は5.9506
ダウンロード数 16
リリース時間 : 6/29/2022

モデル概要

このモデルはDistilBERTのファインチューニング版で、主にテキスト関連タスクに使用されます。具体的な用途はさらに情報を追加する必要があります。

モデル特徴

軽量BERT
DistilBERTアーキテクチャに基づき、標準BERTよりも軽量で効率的
ドメインファインチューニング
becasv2データセットでファインチューニングされており、特定ドメインの能力を持つ可能性がある

モデル能力

テキスト理解
テキスト分類(推論)
テキスト特徴抽出(推論)

使用事例

自然言語処理
テキスト分類
特定分野のテキスト分類タスクに適用可能
検証損失5.9506
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase