# 高F1スコア

Distilbert Qasports
Apache-2.0
distilbert-base-uncased-distilled-squadをファインチューニングした質問応答モデルで、評価セットでF1スコア81.33を達成
質問応答システム Transformers
D
laurafcamargos
18
1
Aramodernbert Topic Classifier
Apache-2.0
これはModernBERT-baseを基にした実験的なアラビア語トピック分類モデルで、ModernBERTをアラビア語タスクに適応させる方法を示しています。
テキスト分類 Transformers アラビア語
A
NAMAA-Space
28
4
Few Shot Learning Classification Bert Sm 5K 32
AutoTrainでトレーニングされた少数ショットテキスト分類モデルで、ニュース記事分類タスクに適しています
テキスト分類 Transformers
F
pravin691983
18
1
Few Shot Learning Classification Bert Sm 500
AutoTrainでトレーニングされたテキスト分類モデルで、少数ショット学習シナリオに適しており、ニュース記事を効率的に分類できます。
テキスト分類 Transformers
F
pravin691983
25
1
Sage V1.1.0
MIT
FRED-T5-1.7Bで訓練されたロシア語スペルチェックモデルで、スペル、句読点、大文字小文字の誤りを修正可能
テキスト生成 Transformers その他
S
ai-forever
668
6
Phayathaibert Thainer
MIT
phayathaibertをファインチューニングしたタイ語タグ分類モデルで、THAI-NERデータセットで優れた性能を発揮
シーケンスラベリング Transformers その他
P
Pavarissy
329
4
Humor No Humor
Apache-2.0
distilbert-base-uncasedをファインチューニングしたユーモア検出モデルで、評価データセットでF1スコア0.9537を達成
テキスト分類 Transformers
H
mohameddhiab
351
7
Wavlm Basic S R 5c 8batch 5sec 0.0001lr Unfrozen
microsoft/wavlm-largeをファインチューニングした音声処理モデル、評価セットで75%の精度達成
音声分類 Transformers
W
reralle
16
0
Bert Base Goemotions
Apache-2.0
bert-base-uncasedをgo_emotionsデータセットでファインチューニングした感情分類モデル
テキスト分類 Transformers
B
IsaacZhy
28
2
Flair Persian NER
Flairフレームワークに組み込まれたペルシア語7クラス固有表現認識モデル、F1スコア90.33(NSURL-2019データセット)
シーケンスラベリング その他
F
PooryaPiroozfar
3,846
8
Extractive Question Answering Not Evaluated
Apache-2.0
このモデルはSQuADデータセットでファインチューニングされたDistilBERTモデルで、抽出型質問応答タスクに使用され、高い正確一致率とF1スコアを有します。
質問応答システム Transformers
E
autoevaluate
18
2
Wav2vec2 Base Intent Classification Ori F1
Apache-2.0
このモデルはfacebook/wav2vec2-baseをファインチューニングした音声意図分類モデルで、評価セットでF1スコア0.875を達成しました。
音声分類 Transformers
W
MuhammadIqbalBazmi
14
0
Faquad Bert Base Portuguese Cased
Apache-2.0
このモデルはneuralmind/bert-base-portuguese-casedをFaQuADデータセットでファインチューニングしたバージョンで、ポルトガル語の抽出型Q&Aタスク用です。
質問応答システム Transformers その他
F
eraldoluis
14
4
Xlm Roberta Base Finetuned Panx Fr
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたフランス語タグ分類モデル
シーケンスラベリング Transformers
X
andreaschandra
16
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングした多言語モデルで、主に固有表現認識タスクに使用されます。
大規模言語モデル Transformers
X
andreaschandra
15
0
Xlm Roberta Base Finetuned Panx All
MIT
XLM-RoBERTa-baseモデルを特定のデータセットでファインチューニングしたバージョンで、主にシーケンスラベリングタスクに使用され、評価F1スコアは0.8561です。
大規模言語モデル Transformers
X
huangjia
29
0
Xlm Roberta Base Finetuned Panx Fr
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたフランス語タグ分類モデル
シーケンスラベリング Transformers
X
huangjia
37
0
Roberta Base Ner Demo
モンゴル語RoBERTa-baseモデルをファインチューニングした固有表現認識(NER)モデル
シーケンスラベリング Transformers その他
R
Buyandelger
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
haesun
25
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
k3nneth
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
rishiyoung
25
0
Xlm Roberta Base Finetuned Panx It
MIT
XLM-RoBERTa-baseモデルをPAN-Xイタリア語データセットでファインチューニングしたタグ分類モデル
シーケンスラベリング Transformers
X
bousejin
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
SimulSt
16
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングした多言語モデル
大規模言語モデル Transformers
X
skr3178
15
0
Xlm Roberta Base Finetuned Panx De
MIT
PAN-Xドイツ語データセットでファインチューニングされたXLM-RoBERTa-baseモデルに基づくトークン分類モデル
シーケンスラベリング Transformers
X
skr3178
18
0
Bert Base German Cased Finetuned Subj V6 7Epoch
MIT
bert-base-german-casedをファインチューニングしたドイツ語テキスト分類モデルで、評価データセットで優れた性能を発揮
テキスト分類 Transformers
B
tbosse
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
davidenam
27
0
Test
Apache-2.0
このモデルはhfl/chinese-bert-wwm-extをconll2003データセットでファインチューニングしたバージョンで、タグ分類タスクに使用されます。
シーケンスラベリング Transformers
T
vegetable
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングした多言語モデルで、主に固有表現認識タスクに使用されます。
大規模言語モデル Transformers
X
danhsf
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
V3RX2000
14
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
novarac23
17
0
Xlm Roberta Base Finetuned Panx It
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたタグ分類モデルで、イタリア語テキスト処理タスクをサポート
シーケンスラベリング Transformers
X
RobertoMCA97
14
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
RobertoMCA97
25
0
Small E Czech Finetuned Ner Wikiann
このモデルはSeznam/small-e-czechをwikiannデータセットでファインチューニングしたバージョンで、チェコ語の固有表現認識タスクに使用されます。
シーケンスラベリング Transformers
S
richielo
10.07k
2
Xlm Roberta Base Finetuned Panx It
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたイタリア語タグ分類モデル
シーケンスラベリング Transformers
X
lijingxin
14
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語のトークン分類モデルで、固有表現認識タスクに使用されます。
シーケンスラベリング Transformers
X
frahman
25
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングしたバージョンで、主に固有表現認識タスクに使用されます。
大規模言語モデル Transformers
X
osanseviero
14
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
naam
15
0
Distilbert Mrpc
Apache-2.0
glueデータセットでファインチューニングされたdistilbert-base-uncasedベースのテキスト分類モデルで、文ペアの意味的等価性を判断
テキスト分類 Transformers
D
mattchurgin
15
0
Hate Trained 1234567
Apache-2.0
distilbert-base-uncasedをファインチューニングしたヘイトスピーチ検出モデル、tweet_evalデータセットで訓練
テキスト分類 Transformers
H
marcolatella
15
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase