D

Distilbert Base Uncased Distilled Squad

distilbertによって開発
DistilBERTはBERTの軽量蒸留バージョンで、パラメータ数が40%減少し、速度が60%向上し、GLUEベンチマークテストでBERTの95%以上の性能を維持します。このモデルは質問応答タスク用に微調整されています。
ダウンロード数 154.39k
リリース時間 : 3/2/2022

モデル概要

DistilBERT-base-uncasedをベースにした微調整モデルで、SQuAD v1.1データセットを使用して知識蒸留により訓練され、英語の質問応答タスクに適しています。

モデル特徴

高効率で軽量
元のBERTモデルと比較して、パラメータ数が40%減少し、推論速度が60%向上します
高性能
GLUEベンチマークテストでBERTの95%以上の性能を維持します
質問応答最適化
SQuAD質問応答タスクに特化して微調整され、SQuAD v1.1で86.9のF1スコアを達成します

モデル能力

抽出型質問応答
テキスト理解
回答位置特定

使用事例

質問応答システム
ドキュメントベースの質問応答
与えられたテキストから質問の答えを抽出する
SQuAD v1.1データセットで86.9のF1スコアを達成します
知識検索
知識ベースから関連情報を検索する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase