Ag News Distilbert
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、AG Newsデータセットで訓練され、精度は89.06%
テキスト分類
Transformers

A
huggingfacecoin
31
1
T5 Small Finetuned Stock News
Apache-2.0
T5-smallアーキテクチャを基にファインチューニングしたテキスト要約モデルで、株式ニュースコンテンツの処理に特化
テキスト生成
Transformers

T
Kallia
15
0
T5 Small Finetuned Xsum
Apache-2.0
T5-smallモデルをXSumデータセットでファインチューニングしたテキスト要約モデル
テキスト生成
Transformers

T
bdwjaya
103
0
Videomae Base Finetuned Deception Dataset
MCG-NJU/videomae-baseをベースに微調整した動画分析モデルで、詐欺検出タスクにおいて70.37%の精度を達成
動画処理
Transformers

V
NiklasTUM
36
0
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
DistilBERT-base-uncasedをファインチューニングした食品/非食品テキスト分類器で、評価データセットで100%の精度を達成
テキスト分類
Transformers

L
karenwky
58
1
Emotion Model
Apache-2.0
distilbert-base-uncasedをファインチューニングした感情分析モデルで、テキストの感情分類タスクに使用
テキスト分類
Transformers

E
umeshkaushik610
15
1
Videomae Base Finetuned Kinetics 0409 Final 5sec Org Ab7 Val Inside Train
このモデルはMCG-NJU/videomae-base-finetuned-kineticsをベースにファインチューニングしたバージョンで、主に動画理解タスクに使用され、評価データセットで91.38%の精度を達成しました。
動画処理
Transformers

V
d2o2ji
17
0
Indicbart Mr Test
IndicBART-mr-testはai4bharat/IndicBARTモデルを未知のデータセットでファインチューニングしたバージョンで、主にテキスト生成タスクに使用され、マラーティー語をサポートします。
大規模言語モデル
Transformers

I
AmaanDhamaskar
47
1
Haitian Creole
MIT
これはハイチ・クレオール語のテキスト読み上げモデルで、jsbeaudry/haitian_creoleを基にファインチューニングされています。
音声合成
Transformers

H
jsbeaudry
172
1
Sentiment Analysis Model
Apache-2.0
DistilBERTベースの軽量感情分析モデル、テキスト感情分類タスクに適しています
テキスト分類
Transformers

S
Freakid
31
1
Whisper Finetuned Amharic
Apache-2.0
openai/whisper-smallをベースにファインチューニングしたアムハラ語音声認識モデルで、評価データセットにおける単語誤り率は2.0538%
音声認識
Transformers

W
seyyaw
57
1
Detr Finetuned Cppe5
Apache-2.0
microsoft/conditional-detr-resnet-50をファインチューニングした物体検出モデルで、特定シナリオにおける物体検出タスクに適しています
物体検出
Transformers

D
bismanwz
96
0
Detr Resnet 50 Finetuned 20 Epochs Boat Dataset
Apache-2.0
facebook/detr-resnet-50モデルを船舶データセットで20エポックファインチューニングした物体検出モデル
物体検出
Transformers

D
ARG-NCTU
272
0
Detr Resnet 50 Dc5 Grasshopper Finetuned Maxsteps 10000 Batchsize 2 Ilham
Apache-2.0
このモデルはFacebookのDETR-ResNet-50-DC5アーキテクチャを基に、バッタ検出データセットでファインチューニングされた物体検出モデルです。
物体検出
Transformers

D
Ilhamfaisal
29
0
EMOTION AI
Apache-2.0
DistilBERTベースの感情分析モデル、未知のデータセットでファインチューニングされ、精度は56.16%
テキスト分類
Transformers

E
Hemg
20
1
Speecht5 Tts Tamil
MIT
microsoft/speecht5_ttsをベースにcommon_voice_17_0データセットでファインチューニングしたタミル語音声合成モデル
音声合成
Transformers

S
vasukumarp
30
1
Detr Finetuned Trashify Box Detector With Data Aug
Apache-2.0
このモデルはmicrosoft/conditional-detr-resnet-50をファインチューニングした物体検出モデルで、ゴミ検出タスク専用に設計されており、トレーニング時にデータ拡張技術が使用されました。
物体検出
Transformers

D
mrdbourke
19
1
Videomae Large Finetuned Deepfake Subset
MCG-NJU/videomae-largeモデルをディープフェイク検出コンペティションのデータセットでファインチューニングしたバージョンで、動画のディープフェイク検出に使用されます。
動画処理
Transformers

V
shylhy
519
0
Vit GPT2 Image Captioning
ViT-GPT2アーキテクチャに基づく画像キャプション生成モデルで、入力画像に対して自然言語の説明を生成できます。
画像生成テキスト
Transformers

V
motheecreator
149
0
Flan T5 Base Samsum
Apache-2.0
このモデルはgoogle/flan-t5-baseをsamsum対話要約データセットでファインチューニングしたバージョンで、対話要約タスク専用に設計されています。
テキスト生成
Transformers

F
sharmax-vikas
26
0
Check Event Wa
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、評価データセットで優れた性能を示し、精度とF1スコアが共に1.0を達成しました。
大規模言語モデル
Transformers

C
Venkatesh4342
15
2
Sew Ft Fake Detection
Apache-2.0
このモデルはasapp/sew-mid-100kをalexandreacff/kaggle-fake-detectionデータセットでファインチューニングした音声分類モデルで、偽音声検出に使用されます。
音声分類
Transformers その他

S
alexandreacff
58
0
Zlm B64 Le5 S8000
MIT
microsoft/speecht5_ttsをファインチューニングした音声合成モデルで、未知のデータセットでトレーニングされ、検証損失は0.3771です。
音声合成
Transformers

Z
mikhail-panzo
29
0
Wav2vec2 Base Finetuned
Apache-2.0
facebook/wav2vec2-baseモデルをベースにファインチューニングした音声処理モデルで、評価セットで99.97%の精度を達成
音声認識
Transformers

W
motheecreator
105
4
Wav2vec2 Base Finetuned
Apache-2.0
facebook/wav2vec2-baseモデルをベースにファインチューニングした音声処理モデルで、評価データセットで99.97%の精度を達成
音声認識
Transformers

W
mo-thecreator
19
4
WHISPER SMALL SWAHILI ASR CV 14
Apache-2.0
このモデルは、OpenAIのWhisper largeをCommon Voice 14.0スワヒリ語(SW)データセットでファインチューニングした音声認識モデルで、単語誤り率(WER)は25.13%です。
音声認識
Transformers その他

W
dmusingu
28
2
Wav2vec2 Base Finetuned Ks
Apache-2.0
wav2vec2-baseモデルをオーディオフォルダデータセットでファインチューニングしたオーディオ分類モデルで、検証セットの精度は99.82%
音声分類
Transformers

W
motheecreator
54
3
Whisper Small Dialect Classifier Cross
Apache-2.0
このモデルはwhisper-smallアーキテクチャに基づく方言分類器で、特定の方言の音声入力を識別・分類するために使用されます。
音声分類
Transformers

W
yaygomii
53
1
Donut Base Handwriting Recognition
MIT
naver-clova-ix/donut-baseをファインチューニングした手書き認識モデル
文字認識
Transformers

D
Cdywalst
140
1
Indian Sign Language Classification
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャを基にファインチューニングしたインド手話画像分類モデルで、精度は99.05%
画像分類
Transformers

I
Hemg
167
5
Marian Finetuned Kde4 En To Zh Json
Apache-2.0
このモデルはHelsinki-NLP/opus-mt-en-zhをファインチューニングした英中翻訳モデルで、評価セットで96.75のBLEUスコアを達成しました。
機械翻訳
Transformers

M
lujiashuai
15
1
Ko Reranker
MIT
BAAI/bge-reranker-largeを韓国語データでファインチューニングしたRerankerモデルで、韓国語検索拡張生成(RAG)の性能向上に使用
テキスト埋め込み
Transformers 複数言語対応

K
Dongjin-kr
34.08k
59
Detr Resnet 50 Finetuned Cppe5
Apache-2.0
facebook/detr-resnet-50をベースに画像フォルダデータセットでファインチューニングしたDETR物体検出モデル
物体検出
Transformers

D
tree12344
20
0
Detr Resnet 101 Finetuned Food Roboflow
Apache-2.0
facebook/detr-resnet-101を食品画像データセットでファインチューニングした物体検出モデル
物体検出
Transformers

D
kariver
20
0
Gpt2 Wikitext2
MIT
GPT-2アーキテクチャをwikitext2データセットでファインチューニングした言語モデル
大規模言語モデル
Transformers

G
dnarqq
63
1
Trocr Base Printed Captcha Ocr
マイクロソフトのtrocr-base-printedモデルをファインチューニングしたCAPTCHA認識モデルで、印刷体テキストのOCRタスク専用に設計されています
文字認識
Transformers

T
chanelcolgate
33
1
Finetuned Detr Resnet 50 On Furniture
Apache-2.0
このモデルは家具データセットでfacebook/detr-resnet-50をファインチューニングしたバージョンで、物体検出タスクに使用されます。
物体検出
Transformers

F
kmc0003a
25
0
Timesformer Base Finetuned K400 Continual Lora Ucf101
TimeSformerアーキテクチャに基づくビデオ分類モデルで、Kinetics-400データセットで事前学習され、UCF101データセットでファインチューニングされ、LoRA技術を用いた継続学習が行われています。
動画処理
Transformers

T
NiiCole
17
0
Resnet18 Catdog Classifier
Apache-2.0
ResNet-18をファインチューニングした猫と犬の画像分類モデルで、Kaggleの猫犬データセットでトレーニングされ、精度は99.29%
画像分類
Transformers 英語

R
hilmansw
216
1
Donut Receipt V2
MIT
naver-clova-ix/donut-baseをファインチューニングしたモデルで、レシート認識やドキュメント理解タスクに使用可能
大規模言語モデル
Transformers

D
mychen76
31
0
- 1
- 2
- 3
- 4
- 5
- 6
- 7
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98