D

Distilbert Base Cased Distilled Squad

Developed by distilbert
DistilBERTはBERTの軽量蒸留バージョンで、パラメータ数が40%減少し、速度が60%向上し、95%以上の性能を維持しています。このモデルはSQuAD v1.1データセットで微調整された質問応答専用バージョンです。
Downloads 220.76k
Release Time : 3/2/2022

Model Overview

Transformerベースの軽量英語質問応答モデルで、与えられたテキストから答えを抽出する抽出型質問応答タスクに適しています。

Model Features

効率的で軽量
知識蒸留技術により、モデルのサイズが元のBERTより40%減少し、推論速度が60%向上します。
高性能
SQuAD v1.1検証セットで87.1のF1スコアを達成し、元のBERTの88.7の性能に近いです。
質問応答に特化
抽出型質問応答タスクに特化して最適化されており、質問応答システムの開発に直接使用できます。

Model Capabilities

テキスト理解
質問応答抽出
コンテキスト分析

Use Cases

教育テクノロジー
自動解答システム
教科書や参考資料から自動的に質問の答えを抽出します。
SQuADベンチマークテストで87.1のF1スコアを達成しました。
カスタマーサービス
FAQ自動応答
知識ベースのドキュメントから迅速に質問の答えを見つけます。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase