# 高いF1スコア

Amoros Beaugosse Batch 64 Epochs 150 Test Large 2025 05 31 74882 Bs64 Freeze
Apache-2.0
このモデルはfacebook/dinov2-largeをベースにした微調整版で、特定のタスクに対して最適化訓練を行っています。
画像分類 Transformers
A
Amoros
1,215
1
Videomae Base Finetuned
MCG-NJU/videomae-baseを未知のデータセットでファインチューニングした動画理解モデルで、F1スコアは0.7147を達成
動画処理 Transformers
V
sheraz179
15
0
Xlm Roberta Base Finetuned Panx All
MIT
xlm-roberta-baseモデルをPANXデータセットでファインチューニングした多言語固有表現認識モデル
大規模言語モデル Transformers
X
okite97
15
0
Roberta Base Ca V2 Cased Qa
Apache-2.0
RoBERTaアーキテクチャに基づくカタルーニャ語質問応答モデルで、カタルーニャ語質問応答タスクで優れた性能を発揮します。
質問応答システム Transformers その他
R
projecte-aina
208
1
Xlm Roberta Base Finetuned Panx De
MIT
XLM - RoBERTa - baseモデルをxtremeデータセットで微調整したドイツ語のタグ分類モデル
シーケンスラベリング Transformers
X
chiranthans23
15
0
Xlm Roberta Base Finetuned Panx It
MIT
XLM - RoBERTa - baseモデルをxtremeデータセットで微調整したタグ分類モデルで、イタリア語の固有表現認識タスクに特化しています。
シーケンスラベリング Transformers
X
flood
16
0
Xlm Roberta Base Finetuned Panx Fr
MIT
XLM - RoBERTa - baseモデルをxtremeデータセットで微調整したフランス語のタグ分類モデル
シーケンスラベリング Transformers
X
flood
14
0
Xlm Roberta Base Finetuned Panx De
MIT
xtremeデータセットでxlm-roberta-baseをファインチューニングしたドイツ語トークン分類モデル
シーケンスラベリング Transformers
X
dfsj
15
0
Distil Slovakbert Ner
このモデルは、distil-slovakbertをwikiann skデータセットで微調整したバージョンで、スロバキア語の命名エンティティ認識タスクに使用されます。
シーケンスラベリング Transformers
D
crabz
131
1
Camembert Base Squadfr Fquad Piaf
CamemBERTをベースにしたフランス語質問応答モデルで、PIAF、FQuAD、SQuAD-FRの3つのフランス語質問応答データセットで微調整されました。
質問応答システム Transformers フランス語
C
AgentPublic
1,789
28
Bert Finetuned Sem Eval English
深層学習に基づくテキスト分類モデルで、検証セットで高いF1スコアとROC AUC値を示しています。
大規模言語モデル Transformers
B
joniponi
16
0
Bert Base Cased Finetuned Emotion
Apache-2.0
BERT-base-casedモデルをemotionデータセットで微調整した感情分類モデル
テキスト分類 Transformers
B
ncduy
15
1
Sentiment Trained 42
Apache-2.0
distilbert-base-uncasedをベースに微調整したツイッター感情分析モデルで、tweet_evalデータセットで訓練されました。
テキスト分類 Transformers
S
aXhyra
18
0
Movie Roberta Squad
映画コーパスを用いてドメイン適応事前学習を行ったRoBERTaベースモデルで、モデルヘッド構造を調整してSQuAD質問応答タスクを実行可能。映画分野の質問に回答できます。
質問応答システム
M
thatdramebaazguy
22
1
Bert Base Spanish Wwm Cased Finetuned Squad2 Es Finetuned Sqac
スペイン語のBERTモデルをSQAC質問応答データセットで微調整した質問応答システムモデル
質問応答システム Transformers スペイン語
B
MMG
114
1
Roberta Base Bne Capitel Ner
Apache-2.0
このモデルはRoBERTaアーキテクチャに基づくスペイン語の固有表現抽出モデルで、スペイン国立図書館の大規模コーパスで事前学習され、CAPITEL NERデータセットで微調整されています。
シーケンスラベリング Transformers 複数言語対応
R
BSC-LT
37
1
Xlm Roberta Base Finetuned Panx De
MIT
xlm - roberta - baseをxtremeデータセットで微調整したドイツ語のタグ分類モデル
シーケンスラベリング Transformers
X
MhF
15
0
Bert Base Uncased Squadv1.1 Sparse 80 1x4 Block Pruneofa
Apache-2.0
このモデルは質問応答タスクに対して微調整されたBERT-Baseモデルで、80% 1x4ブロックスパース事前学習を採用し、知識蒸留技術を組み合わせています。
質問応答システム Transformers 英語
B
Intel
27
0
Bert Fa Base Uncased Sentiment Deepsentipers Multi
Apache-2.0
Transformerベースのペルシア語理解モデルで、語彙表を再構築し、新しいペルシア語コーパスで微調整し、より多くの機能を提供します。
大規模言語モデル その他
B
HooshvareLab
80
0
Albert Base V2 Mrpc
Apache-2.0
albert-base-v2をGLUE MRPCデータセットでファインチューニングしたテキスト分類モデル
テキスト分類 Transformers 英語
A
Alireza1044
39
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase