D

Distilbert Base Multilingual Cased

distilbertによって開発
DistilBERTはBERTベース多言語モデルの蒸留バージョンで、BERTの97%の性能を維持しながら、パラメータが少なく、速度が速いです。104種類の言語をサポートし、様々な自然言語処理タスクに適しています。
ダウンロード数 2.8M
リリース時間 : 3/2/2022

モデル概要

このモデルはBERTベース多言語モデルの軽量版で、知識蒸留技術を通じて訓練され、高性能を維持しながらモデルサイズと計算要件を削減します。主にテキスト分類、固有表現認識、質問応答などの下流タスクの微調整に使用されます。

モデル特徴

多言語対応
104種類の言語のテキスト処理をサポートし、主なヨーロッパとアジアの言語を含む
効率的な推論
オリジナルのBERTモデルと比較して、推論速度が約2倍向上する
知識蒸留
蒸留技術を通じて原モデルの97%の性能を維持しながら、モデルサイズを大幅に削減する
大文字小文字を区別する
大文字小文字を区別でき、例えば 'english' と 'English' は異なると見なされる

モデル能力

テキスト理解
言語モデリング
多言語テキスト処理
下流タスクの微調整

使用事例

自然言語処理
クロス言語テキスト分類
多言語環境でテキストを分類する
XNLIデータセットで良好な結果を示す
固有表現認識
テキスト中の人名、地名、機関名などのエンティティを識別する
質問応答システム
多言語質問応答システムを構築する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase