D

Distilbert Base Uncased Finetuned Cola

stuser2023によって開発
このモデルはDistilBERTをCoLA(Corpus of Linguistic Acceptability)データセットでファインチューニングしたバージョンで、文法受容性判断タスクに使用されます。
ダウンロード数 179
リリース時間 : 11/17/2023

モデル概要

DistilBERTの軽量版で、文の文法受容性を判断するためにファインチューニングされており、元モデルの95%の性能を維持しながらサイズを40%削減しています。

モデル特徴

軽量で効率的
オリジナルのBERTモデルと比較してサイズ40%削減、推論速度60%向上
高精度
CoLAデータセットで0.4819のマシューズ相関係数を達成
迅速なファインチューニング
わずか2トレーニングエポックで良好な性能を獲得

モデル能力

文法正しさ判断
テキスト分類
自然言語理解

使用事例

教育技術
文法チェックツール
ライティング支援ツールに統合して文法的誤りを検出
英語文法に合致しない文構造を識別可能
コンテンツモデレーション
コンテンツ品質フィルタリング
文法が不適切なSNSコンテンツをフィルタリング
プラットフォーム全体のコンテンツ品質向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase