D

Distilbert Base Uncased Becas 2

Developed by Evelyn18
distilbert-base-uncasedをbecasv2データセットでファインチューニングしたモデル、検証損失は5.9506
Downloads 16
Release Time : 6/29/2022

Model Overview

このモデルはDistilBERTのファインチューニング版で、主にテキスト関連タスクに使用されます。具体的な用途はさらに情報を追加する必要があります。

Model Features

軽量BERT
DistilBERTアーキテクチャに基づき、標準BERTよりも軽量で効率的
ドメインファインチューニング
becasv2データセットでファインチューニングされており、特定ドメインの能力を持つ可能性がある

Model Capabilities

テキスト理解
テキスト分類(推論)
テキスト特徴抽出(推論)

Use Cases

自然言語処理
テキスト分類
特定分野のテキスト分類タスクに適用可能
検証損失5.9506
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase