Ag News Distilbert
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、AG Newsデータセットで訓練され、精度は89.06%
テキスト分類
Transformers

A
huggingfacecoin
31
1
News Classification.4
このモデルはニュース記事を分類することを目的としており、ユーザーがニュースコンテンツを迅速に識別・整理するのに役立ちます。
テキスト分類
N
Imasha17
230
1
Few Shot Learning Classification Bert Sm 5K 32
AutoTrainでトレーニングされた少数ショットテキスト分類モデルで、ニュース記事分類タスクに適しています
テキスト分類
Transformers

F
pravin691983
18
1
Few Shot Learning Classification Bert Sm 500
AutoTrainでトレーニングされたテキスト分類モデルで、少数ショット学習シナリオに適しており、ニュース記事を効率的に分類できます。
テキスト分類
Transformers

F
pravin691983
25
1
News Classifier Litigation
Apache-2.0
distilbert-base-uncasedをファインチューニングしたニュース分類モデルで、訴訟関連ニュースの分類タスクに特化しています。
テキスト分類
Transformers

N
Valent2809
22
1
Distilbert Base Uncased Ag News
DistilBERTアーキテクチャに基づく軽量テキスト分類モデル。TextAttackフレームワークを使用してAG Newsデータセットで微調整され、ニュース分類タスクに適しています。
テキスト分類
Transformers

D
textattack
544
2
Bert Base Cased Ag News
MIT
BERTベースのテキスト分類モデルで、AG Newsデータセットで微調整され、テストの正解率は94.5%に達します。
テキスト分類
Transformers 英語

B
lucasresck
150
2
Bert Base Uncased Ag News
Apache-2.0
BERTベースモデルをAGニュースデータセットでファインチューニングしたテキスト分類モデル、精度は93.75%
テキスト分類
Transformers

B
fabriceyhc
125
0
Sahajbert NCC
Apache-2.0
sahajBERTをファインチューニングしたベンガル語ニュース記事分類モデルで、6つのニュースカテゴリ分類をサポート
テキスト分類
Transformers その他

S
neuropark
23
2
Distilbert Base Uncased Agnews Student
MIT
このモデルは、蒸留技術を通じてゼロショット分類プロセスから取得されたAGニュース分類モデルで、主に高価なゼロショットモデルをより高効率な学生モデルに蒸留する方法をデモンストレーションするために使用されます。
テキスト分類
Transformers 英語

D
joeddav
900
5
Bert Mini Finetuned Age News Classification
これはBERT-Miniアーキテクチャをベースにファインチューニングされたニュース分類モデルで、ag_newsデータセットで93%のテスト精度を達成しました。
テキスト分類 英語
B
mrm8488
63
10
Bert Fa Base Uncased Clf Persiannews
Apache-2.0
Transformerに基づくペルシャ語理解モデルで、語彙表を再構築し、新しいペルシャ語コーパスで微調整を行い、ペルシャ語テキスト処理により多くの機能を提供します。
テキスト分類 その他
B
HooshvareLab
2,009
9
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98