Distilbert Qasports
Apache-2.0
distilbert-base-uncased-distilled-squadをファインチューニングした質問応答モデルで、評価セットでF1スコア81.33を達成
質問応答システム
Transformers

D
laurafcamargos
18
1
Aramodernbert Topic Classifier
Apache-2.0
これはModernBERT-baseを基にした実験的なアラビア語トピック分類モデルで、ModernBERTをアラビア語タスクに適応させる方法を示しています。
テキスト分類
Transformers アラビア語

A
NAMAA-Space
28
4
Few Shot Learning Classification Bert Sm 5K 32
AutoTrainでトレーニングされた少数ショットテキスト分類モデルで、ニュース記事分類タスクに適しています
テキスト分類
Transformers

F
pravin691983
18
1
Few Shot Learning Classification Bert Sm 500
AutoTrainでトレーニングされたテキスト分類モデルで、少数ショット学習シナリオに適しており、ニュース記事を効率的に分類できます。
テキスト分類
Transformers

F
pravin691983
25
1
Sage V1.1.0
MIT
FRED-T5-1.7Bで訓練されたロシア語スペルチェックモデルで、スペル、句読点、大文字小文字の誤りを修正可能
テキスト生成
Transformers その他

S
ai-forever
668
6
Phayathaibert Thainer
MIT
phayathaibertをファインチューニングしたタイ語タグ分類モデルで、THAI-NERデータセットで優れた性能を発揮
シーケンスラベリング
Transformers その他

P
Pavarissy
329
4
Humor No Humor
Apache-2.0
distilbert-base-uncasedをファインチューニングしたユーモア検出モデルで、評価データセットでF1スコア0.9537を達成
テキスト分類
Transformers

H
mohameddhiab
351
7
Wavlm Basic S R 5c 8batch 5sec 0.0001lr Unfrozen
microsoft/wavlm-largeをファインチューニングした音声処理モデル、評価セットで75%の精度達成
音声分類
Transformers

W
reralle
16
0
Bert Base Goemotions
Apache-2.0
bert-base-uncasedをgo_emotionsデータセットでファインチューニングした感情分類モデル
テキスト分類
Transformers

B
IsaacZhy
28
2
Flair Persian NER
Flairフレームワークに組み込まれたペルシア語7クラス固有表現認識モデル、F1スコア90.33(NSURL-2019データセット)
シーケンスラベリング その他
F
PooryaPiroozfar
3,846
8
Extractive Question Answering Not Evaluated
Apache-2.0
このモデルはSQuADデータセットでファインチューニングされたDistilBERTモデルで、抽出型質問応答タスクに使用され、高い正確一致率とF1スコアを有します。
質問応答システム
Transformers

E
autoevaluate
18
2
Wav2vec2 Base Intent Classification Ori F1
Apache-2.0
このモデルはfacebook/wav2vec2-baseをファインチューニングした音声意図分類モデルで、評価セットでF1スコア0.875を達成しました。
音声分類
Transformers

W
MuhammadIqbalBazmi
14
0
Faquad Bert Base Portuguese Cased
Apache-2.0
このモデルはneuralmind/bert-base-portuguese-casedをFaQuADデータセットでファインチューニングしたバージョンで、ポルトガル語の抽出型Q&Aタスク用です。
質問応答システム
Transformers その他

F
eraldoluis
14
4
Xlm Roberta Base Finetuned Panx Fr
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたフランス語タグ分類モデル
シーケンスラベリング
Transformers

X
andreaschandra
16
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングした多言語モデルで、主に固有表現認識タスクに使用されます。
大規模言語モデル
Transformers

X
andreaschandra
15
0
Xlm Roberta Base Finetuned Panx All
MIT
XLM-RoBERTa-baseモデルを特定のデータセットでファインチューニングしたバージョンで、主にシーケンスラベリングタスクに使用され、評価F1スコアは0.8561です。
大規模言語モデル
Transformers

X
huangjia
29
0
Xlm Roberta Base Finetuned Panx Fr
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたフランス語タグ分類モデル
シーケンスラベリング
Transformers

X
huangjia
37
0
Roberta Base Ner Demo
モンゴル語RoBERTa-baseモデルをファインチューニングした固有表現認識(NER)モデル
シーケンスラベリング
Transformers その他

R
Buyandelger
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
haesun
25
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
k3nneth
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
rishiyoung
25
0
Xlm Roberta Base Finetuned Panx It
MIT
XLM-RoBERTa-baseモデルをPAN-Xイタリア語データセットでファインチューニングしたタグ分類モデル
シーケンスラベリング
Transformers

X
bousejin
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
SimulSt
16
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングした多言語モデル
大規模言語モデル
Transformers

X
skr3178
15
0
Xlm Roberta Base Finetuned Panx De
MIT
PAN-Xドイツ語データセットでファインチューニングされたXLM-RoBERTa-baseモデルに基づくトークン分類モデル
シーケンスラベリング
Transformers

X
skr3178
18
0
Bert Base German Cased Finetuned Subj V6 7Epoch
MIT
bert-base-german-casedをファインチューニングしたドイツ語テキスト分類モデルで、評価データセットで優れた性能を発揮
テキスト分類
Transformers

B
tbosse
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
davidenam
27
0
Test
Apache-2.0
このモデルはhfl/chinese-bert-wwm-extをconll2003データセットでファインチューニングしたバージョンで、タグ分類タスクに使用されます。
シーケンスラベリング
Transformers

T
vegetable
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングした多言語モデルで、主に固有表現認識タスクに使用されます。
大規模言語モデル
Transformers

X
danhsf
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
V3RX2000
14
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
novarac23
17
0
Xlm Roberta Base Finetuned Panx It
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたタグ分類モデルで、イタリア語テキスト処理タスクをサポート
シーケンスラベリング
Transformers

X
RobertoMCA97
14
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
RobertoMCA97
25
0
Small E Czech Finetuned Ner Wikiann
このモデルはSeznam/small-e-czechをwikiannデータセットでファインチューニングしたバージョンで、チェコ語の固有表現認識タスクに使用されます。
シーケンスラベリング
Transformers

S
richielo
10.07k
2
Xlm Roberta Base Finetuned Panx It
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたイタリア語タグ分類モデル
シーケンスラベリング
Transformers

X
lijingxin
14
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語のトークン分類モデルで、固有表現認識タスクに使用されます。
シーケンスラベリング
Transformers

X
frahman
25
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングしたバージョンで、主に固有表現認識タスクに使用されます。
大規模言語モデル
Transformers

X
osanseviero
14
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
naam
15
0
Distilbert Mrpc
Apache-2.0
glueデータセットでファインチューニングされたdistilbert-base-uncasedベースのテキスト分類モデルで、文ペアの意味的等価性を判断
テキスト分類
Transformers

D
mattchurgin
15
0
Hate Trained 1234567
Apache-2.0
distilbert-base-uncasedをファインチューニングしたヘイトスピーチ検出モデル、tweet_evalデータセットで訓練
テキスト分類
Transformers

H
marcolatella
15
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98