D

Distilbert Base Uncased Finetuned Squad

shizilによって開発
DistilBERTベースの軽量質問応答モデル、SQuADデータセットでファインチューニング済み
ダウンロード数 15
リリース時間 : 11/16/2022

モデル概要

このモデルはDistilBERTのファインチューン版で、質問応答タスク専用に設計されています。元のDistilBERTの軽量特性を保持しつつ、質問応答タスク向けに最適化されています。

モデル特徴

軽量で効率的
DistilBERTアーキテクチャ採用、標準BERTモデル比40%小型、60%高速化、97%の性能を維持
質問応答最適化
SQuAD質問応答データセットでファインチューニング、質問応答タスク向けに特別に最適化
低リソース要求
完全版BERTモデルと比較し、訓練と推論に必要な計算リソースが少ない

モデル能力

読解
質問回答
テキスト理解

使用事例

教育
自動解答システム
教育用質問応答システム構築に使用、教材内容に関する学生の質問に回答
カスタマーサービス
FAQ自動回答
カスタマーサービスシステムに統合し、よくある質問に自動回答
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase