Zk1 QA VN Test2
Zk1-QA-VN-test2は、ZycckZ/Zk1-QA-VN-testをベースに微調整されたベトナム語質問応答モデルで、質問応答タスクで優れた性能を発揮します。
質問応答システム
Transformers その他

Z
ZycckZ
384
1
Segformer B0 Finetuned Morphpadver1 Hgo Coord V3
その他
nvidia/mit-b3をベースに微調整した画像セグメンテーションモデルで、NICOPOI-9/morphpad_coord_hgo_512_4classデータセットでトレーニングされ、高精度な画像セグメンテーションタスクに優れています。
画像セグメンテーション
Transformers

S
NICOPOI-9
22
0
Segformer B0 Finetuned Morphpadver1 Hgo Coord V2
その他
SegFormerアーキテクチャに基づく軽量画像セグメンテーションモデル。NICOPOI-9/morphpad_coord_hgo_512_4classデータセットで微調整され、高精度セマンティックセグメンテーションタスク専用です。
画像セグメンテーション
Transformers

S
NICOPOI-9
23
0
Mask2former Finetuned ER Mito LD5
その他
facebook/mask2former-swin-base-IN21k-ade-semanticモデルをDnq2025/Mask2former_Pretrainデータセットで微調整した画像セグメンテーションモデル
画像セグメンテーション
Transformers

M
Dnq2025
26
0
Segformer B0 Finetuned Batch1w5 15Dec
その他
SegFormerアーキテクチャに基づく軽量画像セグメンテーションモデルで、特定データセットで微調整されており、高精度なピクセルレベルの分類タスクに優れています
画像セグメンテーション
Transformers

S
PushkarA07
15
0
Llamaestra 3.2 1B Translation
LlaMaestraは、英語とイタリア語の間のテキスト翻訳に特化した、微調整された小型のLlamaモデルです。
機械翻訳
Transformers 複数言語対応

L
puettmann
4,388
2
Ph Audio Classification V1
Apache-2.0
distilhubertを微調整したオーディオ分類モデルで、評価データセットで100%の精度を達成
音声分類
Transformers

P
herbiel
272
0
Belle Whisper Large V3 Turbo Zh
Apache-2.0
whisper-large-v3-turboを基に中国語音声認識向けに微調整したモデルで、複数の中国語音声認識ベンチマークテストで性能が大幅に向上
音声認識
Transformers

B
BELLE-2
2,891
55
T5 Small Finetuned V2 Hausa To Chinese
Apache-2.0
T5-smallを微調整したハウサ語から中国語への翻訳モデルで、評価セットで30.0183のBLEUスコアを達成しました。
機械翻訳
Transformers

T
Kumshe
15
1
Whisper Large V3 Turbo Arabic
Apache-2.0
transformersライブラリに基づき、common_voice_11_0データセットでopenai/whisper-large-v3-turboを微調整したバージョンで、アラビア語音声認識に特化して最適化されています。
音声認識
Transformers

W
mboushaba
1,696
1
Paligemma 3b Ft Waveui 896
PaliGemma 3B 896解像度の重みを微調整したUI要素検出モデルで、物体検出タスクに特化
画像生成テキスト
Transformers 英語

P
agentsea
43
6
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
これはDistilBERT-base-uncasedを微調整したテキスト分類モデルで、食品関連テキストと非食品テキストを区別するために使用されます。
テキスト分類
Transformers

L
mrdbourke
238
2
Deepfake Audio Detection
Apache-2.0
wav2vec2-base-finetunedを基にさらに微調整した音声処理モデルで、評価セットで98.82%の精度を達成
音声認識
Transformers

D
motheecreator
1,468
7
Deepfake Audio Detection
Apache-2.0
wav2vec2-base-finetunedモデルを微調整した音声処理モデルで、評価セットで98.82%の精度を達成
音声認識
Transformers

D
mo-thecreator
801
7
Deepseek Coder 1.3B Kexer
Apache-2.0
Deepseek-coder-1.3Bをベースに微調整されたオープンソースの生成型テキストモデルで、Kotlinコード生成タスクに特化しています。
大規模言語モデル
Transformers その他

D
JetBrains
1,937
4
Tinyllama Essay Scorer
Apache-2.0
TinyLlama-1.1Bを微調整した作文評価モデル
大規模言語モデル
Transformers

T
as-cle-bert
19
2
Phi 3 Mini 4k Instruct Bnb 4bit
その他
Phi-3-mini-4k-instructの4ビット量子化バージョンで、bitsandbytesツールを使用して量子化され、微調整用に設計されています。
大規模言語モデル
Transformers

P
leliuga
1,541
4
Segformer B0 Finetuned Segments Graffiti
その他
NVIDIAのSegFormer-B0アーキテクチャをベースに、落書き分割データセットで微調整された画像分割モデルで、画像中の落書き領域を正確に識別・分割できます。
画像セグメンテーション
Transformers

S
Adriatogi
14
0
T5 Small Finetuned Nl2sql
Apache-2.0
T5-smallを微調整したNL2SQLモデルで、自然言語をSQLクエリに変換します
大規模言語モデル
Transformers

T
Shritama
27
1
Whisper Large V3 Ft Cv16 Mn
Apache-2.0
Common Voice 16.0データセットで微調整されたOpenAI Whisper Large V3モデルに基づく音声認識モデル
音声認識
Transformers

W
sanchit-gandhi
34
1
Belle Distilwhisper Large V2 Zh
Apache-2.0
distilwhisper-large-v2を微調整した中国語音声認識モデルで、whisper-large-v2の5.8倍の速度で、パラメータが51%削減されています
音声認識
Transformers

B
BELLE-2
230
37
Whisper Small Turkish Tr Best
Apache-2.0
OpenAI Whisper-smallを微調整したトルコ語音声認識モデル、単語誤り率26.34%
音声認識
Transformers

W
erenfazlioglu
61
4
Llama2 7b WhoIsHarryPotter
その他
このモデルは微調整技術により、大規模言語モデルから『ハリー・ポッター』シリーズの知識を選択的に忘却する能力を実現しつつ、他の性能を維持しています。
大規模言語モデル
Transformers

L
microsoft
520
38
Git Base Next Refined
MIT
microsoft/git-baseを微調整した画像からテキストへの変換モデル
大規模言語モデル
Transformers その他

G
swaroopajit
24
0
Opus Mt Ko En Finetuned
Apache-2.0
Helsinki-NLPのopus-mt-ko-enモデルを基に微調整した韓英翻訳モデル
機械翻訳
Transformers

O
yeeunlee
21
1
Animov 0.1.1
diffusersフレームワークで微調整されたアニメスタイルのテキスト動画変換モデルで、英語入力に対応し、出力解像度は448x384ピクセルです。
テキスト生成ビデオ 英語
A
vdo
215
1
Wavlm Basic S F O 8batch 10sec 0.0001lr Unfrozen
microsoft/wavlm-largeを微調整した音声処理モデルで、評価セットで80%の精度と79.57%のF1スコアを達成
音声分類
Transformers

W
reralle
14
0
Opus Mt Ro En
Apache-2.0
Helsinki-NLP/opus-mt-roa-enを微調整したルーマニア語から英語への翻訳モデルで、トレーニングデータ量は200万レコードです。
機械翻訳
Transformers 複数言語対応

O
BlackKakapo
780
1
Swin Tiny Patch4 Window7 224 Isl Finetuned
Apache-2.0
microsoft/swin-tiny-patch4-window7-224を基に微調整した視覚モデルで、評価データセットで100%の精度を達成
画像分類
Transformers

S
hazardous
17
0
Swin Tiny Patch4 Window7 224 Finetuned Ai Not
Apache-2.0
Swin Transformerアーキテクチャに基づく微調整モデル、AI生成コンテンツ検出タスク用
画像分類
Transformers

S
LukeSajkowski
17
0
Detr Resnet 50 Finetuned Cppe5
facebook/detr-resnet-50をベースにcppe-5データセットで微調整した物体検出モデル
物体検出
Transformers

D
Mustafa21
15
0
Videomae Base Finetuned
VideoMAEベースモデルを未知のデータセットで微調整した動画理解モデルで、評価セットで86.41%の精度を達成
動画処理
Transformers

V
LouisDT
15
0
Swin Base Finetuned Cifar100
Apache-2.0
このモデルはSwin Transformerアーキテクチャに基づき、CIFAR-100データセットで微調整された画像分類モデルで、精度は92.01%を達成しています。
画像分類
Transformers

S
MazenAmria
119
1
Whisper Small Cv11 German
Apache-2.0
openai/whisper-smallをCommon Voice 11.0ドイツ語データセットで微調整した音声認識モデルで、ドイツ語音声をテキストに変換し、大文字小文字と句読点を予測します。
音声認識
Transformers ドイツ語

W
bofenghuang
67
7
Resnet 50 Ucsat
Apache-2.0
microsoft/resnet-50を微調整した画像分類モデルで、未知のデータセットで中程度の精度を示す
画像分類
Transformers

R
YKXBCi
24
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデルで、SQuADデータセットで微調整され、抽出型質問応答タスクに使用されます。
質問応答システム
Transformers

D
lingchensanwen
16
0
Wav2vec2 Base Ft Cv3 V3
Apache-2.0
このモデルはfacebook/wav2vec2-baseをCommon Voice 3.0英語データセットで微調整した音声認識モデルで、テストセットで0.247の単語誤り率を達成しました。
音声認識
Transformers

W
danieleV9H
120
0
Deberta Base Finetuned Aqa
MIT
microsoft/deberta-baseをadversarial_qaデータセットで微調整した質問応答モデル
質問応答システム
Transformers

D
stevemobs
15
0
Distilbert Base Uncased Finetune
Apache-2.0
DistilBERTベースモデルを微調整したバージョンで、テキスト分類タスクに適しています。
大規模言語モデル
Transformers

D
dhlanm
15
0
Convnext Tiny Finetuned Beans
Apache-2.0
このモデルはConvNeXt-Tinyアーキテクチャをベースにbeansデータセットで微調整された画像分類モデルで、精度は96.09%を達成しています。
画像分類
Transformers

C
mrm8488
15
1
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98