D

Distilbert Base Cased Distilled Squad

distilbertによって開発
DistilBERTはBERTの軽量蒸留バージョンで、パラメータ数が40%減少し、速度が60%向上し、95%以上の性能を維持しています。このモデルはSQuAD v1.1データセットで微調整された質問応答専用バージョンです。
ダウンロード数 220.76k
リリース時間 : 3/2/2022

モデル概要

Transformerベースの軽量英語質問応答モデルで、与えられたテキストから答えを抽出する抽出型質問応答タスクに適しています。

モデル特徴

効率的で軽量
知識蒸留技術により、モデルのサイズが元のBERTより40%減少し、推論速度が60%向上します。
高性能
SQuAD v1.1検証セットで87.1のF1スコアを達成し、元のBERTの88.7の性能に近いです。
質問応答に特化
抽出型質問応答タスクに特化して最適化されており、質問応答システムの開発に直接使用できます。

モデル能力

テキスト理解
質問応答抽出
コンテキスト分析

使用事例

教育テクノロジー
自動解答システム
教科書や参考資料から自動的に質問の答えを抽出します。
SQuADベンチマークテストで87.1のF1スコアを達成しました。
カスタマーサービス
FAQ自動応答
知識ベースのドキュメントから迅速に質問の答えを見つけます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase