D

Distilbert Base Uncased Finetuned Cola

shilikによって開発
このモデルは、DistilBERT-base-uncasedをCoLA(Corpus of Linguistic Acceptability)データセットでファインチューニングしたバージョンで、文法の受容可能性判断タスクに使用されます。
ダウンロード数 33
リリース時間 : 3/8/2025

モデル概要

このモデルはDistilBERTの軽量版で、英語文の文法受容可能性を判断するために特別にファインチューニングされています。高い精度を維持しながら、モデルサイズが小さく、推論速度が速い特徴があります。

モデル特徴

軽量で効率的
知識蒸留技術によりBERT-baseの97%の性能を維持しつつ、モデルサイズを40%削減
高速推論
オリジナルBERTモデルと比較して、推論速度が60%向上
専門的なファインチューニング
CoLAデータセットで文法受容可能性判断タスク向けに最適化

モデル能力

文法正しさ判断
テキスト分類
自然言語理解

使用事例

教育技術
文法チェックツール
ライティング支援ツールに統合し、英語文の文法受容可能性を自動検出
マシューズ相関係数0.544を達成
言語研究
言語学実験
人間の文法構造への受容度研究に使用
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase