Distilbert Base Uncased Ag News
DistilBERTアーキテクチャに基づく軽量テキスト分類モデル。TextAttackフレームワークを使用してAG Newsデータセットで微調整され、ニュース分類タスクに適しています。
Downloads 544
Release Time : 3/2/2022
Model Overview
このモデルはDistilBERTの微調整バージョンで、特にニュース分類シナリオで優れた性能を発揮するシーケンス分類タスク専用です。
Model Features
効率的で軽量
DistilBERTアーキテクチャに基づき、BERTの95%の性能を維持しながらサイズを40%削減
高精度
AG News検証セットで94.79%の精度を達成
敵対的訓練
TextAttackフレームワークによる訓練で、より優れた敵対的ロバスト性を備えている可能性
Model Capabilities
英語テキスト分類
ニュースカテゴリ予測
短いテキスト分析
Use Cases
ニュースメディア
ニュース自動分類
ニュース記事を事前定義されたカテゴリに自動分類
検証精度94.79%
コンテンツ管理
コンテンツ審査補助
ユーザー生成コンテンツの識別と分類を支援
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98