D

Distilbert Mlm 750k

Developed by vocab-transformers
DistilBERTはBERTの軽量級蒸留バージョンで、大部分の性能を維持しながらパラメータが少なくなっています。
Downloads 26
Release Time : 4/2/2022

Model Overview

DistilBERTは知識蒸留技術を通じてBERTモデルから圧縮された軽量級モデルで、主に自然言語処理タスク、例えばテキスト分類、質問応答、固有表現認識などに使用されます。

Model Features

軽量で効率的
知識蒸留技術を通じて、モデルのパラメータが元のBERTより40%減少し、同時に97%の性能を維持します。
多タスク対応
テキスト分類、質問応答、固有表現認識などの様々な自然言語処理タスクをサポートします。
事前学習データが豊富
C4、MSMARCO、ウィキペディア、S2ORC、ニュースデータセットで事前学習されています。

Model Capabilities

テキスト分類
質問応答システム
固有表現認識
テキスト埋め込み

Use Cases

テキスト分析
感情分析
テキストの感情傾向(肯定的、否定的、中立的)を分析します。
複数のベンチマークデータセットで元のBERTモデルに近い性能を発揮します。
スパムメール検出
スパムメールや有害コンテンツを識別して分類します。
情報抽出
固有表現認識
テキストから人名、地名、組織名などのエンティティを抽出します。
質問応答システム
与えられたテキストに基づいてユーザーの質問に答えます。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase