Swin Tiny Finetuned Dogfood
Apache-2.0
Swin Transformer Tinyアーキテクチャをファインチューニングしたドッグフード画像分類モデル、テストセットで98.8%の精度を達成
画像分類
Transformers

S
sasha
15
1
Vit Finetuned Vanilla Cifar10 0
Apache-2.0
Vision Transformer (ViT)アーキテクチャを基にCIFAR-10データセットでファインチューニングされた画像分類モデル、精度99.2%達成
画像分類
Transformers

V
02shanky
68
1
Lwm V1.1
LWM 1.1は無線チャネル特徴抽出のために特別に設計されたアップグレード版事前学習モデルで、多様なチャネル設定をサポートし、特徴抽出の品質と汎化能力を向上させます。
物理学モデル
Transformers

L
wi-lab
277
1
Kinyawhisper
MIT
KinyaWhisperはOpenAI Whisperモデルをファインチューニングしたルワンダ語自動音声認識(ASR)システムで、低リソースの先住民言語向けに設計されています。
音声認識
Transformers その他

K
benax-rw
149
3
Cricket Project 03
MIT
このモデルはmicrosoft/deberta-v3-baseをファインチューニングしたバージョンで、評価データセットで優れた性能を示し、精度は99.87%に達しました。
大規模言語モデル
Transformers

C
rawsun00001
22
1
Tinyllava Video Coldstart NextQA 16
Apache-2.0
TinyLLaVA-Video-R1は、NextQAデータセットからの16個の手動アノテーションサンプルを使用してTinyLLaVA-Videoをコールドスタート訓練することで得られた動画テキストからテキストへのモデルです。
ビデオ生成テキスト
Transformers

T
Zhang199
63
0
Vit Beans
Apache-2.0
google/vit-base-patch16-224-in21kをbeansデータセットでファインチューニングしたVision Transformerモデル、画像分類タスク用
画像分類
Transformers

V
SangjeHwang
17
1
Videomae Base Finetuned Ucf101 Subset
VideoMAEベースモデルをUCF101サブセットでファインチューニングしたビデオ分類モデル
動画処理
Transformers

V
cccchristopher
30
0
R1 Aqa
Apache-2.0
R1-AQAはQwen2-Audio-7B-Instructを基にした音声質問応答モデルで、集団相対戦略最適化(GRPO)アルゴリズムによる強化学習最適化を行い、MMAUベンチマークテストで最先端の性能を達成しました。
音声生成テキスト
Transformers

R
mispeech
791
14
Segformer B0 Finetuned Morphpadver1 Hgo 3
その他
nvidia/mit-b0をベースにファインチューニングした画像セグメンテーションモデルで、NICOPOI-9/morphpad_hgo_512_4classデータセットでトレーニングされ、高精度な画像セグメンテーションタスクに優れています。
画像セグメンテーション
Transformers

S
NICOPOI-9
30
0
Vit Base Beans
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、beansデータセットに特化してファインチューニングされています
画像分類
Transformers

V
HieuVo
49
1
Zurich 7B GCv2 100k
Apache-2.0
Qwen 2.5 7B Instructモデルをファインチューニングした対話モデルで、ガンマコーパスv2-100kでトレーニング
大規模言語モデル
Transformers 英語

Z
rubenroy
45
3
Cat Dog Classifier With Small Datasest
Apache-2.0
microsoft/resnet-50をファインチューニングした猫犬画像分類モデルで、評価セットで95%の精度を達成
画像分類
Transformers

C
MoGHenry
33
1
Tomato Leaf Disease Classification Vit
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャを基にファインチューニングしたトマト葉病害分類モデルで、評価セットで99.67%の精度を達成
画像分類
Transformers

T
wellCh4n
55
1
Few Shot Art Painting
MIT
これは拡散モデルに基づく無条件画像生成モデルで、可愛い蝶の画像を生成するために特別に設計されています。
画像生成
F
Marzoky
17
0
My Awesome Mind Model
Apache-2.0
facebook/wav2vec2-baseをminds14データセットでファインチューニングした音声分類モデル
音声分類
Transformers

M
faaany
1
0
Upernetconvnext Finetuned Segments Food Oct 14
MIT
ConvNeXtアーキテクチャに基づく食品画像セグメンテーションモデルで、FoodSeg103データセットでファインチューニングされ、食品画像中の異なる食材カテゴリを識別・分割するために特別に設計されています。
画像セグメンテーション
Transformers

U
LightDestory
432
0
Lwm
LWMは無線通信分野初の基盤モデルで、汎用特徴抽出器として開発され、無線チャネルデータから精緻な表現を抽出できます。
物理学モデル
Transformers

L
wi-lab
137
3
Sapiens Pretrain 0.6b
Sapiensは3億枚の1024×1024解像度人体画像で事前学習された視覚Transformerモデルで、人間中心の視覚タスクに優れています。
画像分類 英語
S
facebook
13
0
Theia Base Patch16 224 Cdiv
その他
テイアはロボット学習向けの視覚基盤モデルで、複数の既存視覚基盤モデルを蒸留して構築され、豊富な視覚表現能力を備えています。
画像分類
Transformers

T
theaiinstitute
7,621
8
Theia Tiny Patch16 224 Cdiv
その他
テイアはロボット学習向けの視覚基盤モデルで、複数の既存視覚基盤モデルを蒸留して作成され、豊富な視覚表現能力を備えています。
画像分類
Transformers

T
theaiinstitute
50
4
Robbert V2 Dutch Base Finetuned Emotion
MIT
このモデルはRobBERT v2オランダ語ベースモデルを感情分析タスクで微調整したバージョンで、主にオランダ語テキストの感情分類に使用されます。
テキスト分類
Transformers

R
antalvdb
67
1
XTTS V2 Argentinian Spanish
その他
ⓍTTSは音声生成モデルで、わずか6秒の音声サンプルで声をクローンし、異なる言語に適用できます。何時間もの大量のトレーニングデータは必要ありません。
音声合成 スペイン語
X
marianbasti
44
5
Diffusion Aurora 256
拡散モデルに基づいた高品質なオーロラ画像を生成できるモデルです。
画像生成
D
li-yan
51
1
UL Exterior Classification
Apache-2.0
GoogleのViT-base-patch16-224モデルをファインチューニングした画像分類モデルで、評価セットでの精度は68.97%
画像分類
Transformers

U
sharmajai901
319
1
Videomae Base ASD Eye Contact V2
VideoMAEベースモデルをファインチューニングしたビデオ分析モデルで、自閉症スペクトラム障害(ASD)関連のアイコンタクト認識タスクに特化
動画処理
Transformers

V
kanlo
48
1
UL Base Classification
Apache-2.0
このモデルはGoogleのViT-base-patch16-224を画像フォルダデータセットでファインチューニングした画像分類モデルで、検証セットの精度は89.21%です。
画像分類
Transformers

U
sharmajai901
2,432
1
Emotion Image Classification V2
Apache-2.0
GoogleのViTモデルをファインチューニングした感情画像分類モデルで、検証セットで59.38%の精度を達成しました。
画像分類
Transformers

E
jhoppanne
2,176
2
Setfit Contracts Clauses
これはSetFitフレームワークに基づくテキスト分類モデルで、契約条項分類タスクに特化しており、精度は94.25%です。
テキスト分類
S
scholarly360
100
6
Cosmicbun 8B
MIT
CosmicBun-8BはLlama3-8Bアーキテクチャを基にした統合モデルで、数学、物理、化学、生物などの科学分野のテキスト生成タスクに特化しています。
大規模言語モデル
Transformers

C
aloobun
19
4
Bhutanese Textile Model
Apache-2.0
GoogleのViTモデルをファインチューニングしたブータンテキスタイル画像分類モデル
画像分類
Transformers

B
Dalaix703
50
1
Turkish Gpt2 Medium 350m Instruct V0.1
MIT
ytu-ce-cosmos/turkish-gpt2-mediumをベースに開発されたトルコ語モデルで、3.5万件の命令データセットでファインチューニングされており、様々なテキスト生成タスクに適しています
大規模言語モデル
Transformers その他

T
ytu-ce-cosmos
899
12
JARVIS
Apache-2.0
因果言語モデリング(CLM)アーキテクチャに基づく対話AIで、自然言語インタラクション向けに設計されており、一貫性があり文脈に合った応答を生成できます。
大規模言語モデル
Transformers 複数言語対応

J
VAIBHAV22334455
38
12
E.star.7.b
Apache-2.0
Mistralアーキテクチャに基づく7Bパラメータの大規模言語モデル。UnslothとTRLライブラリを使用した効率的なトレーニングにより、複数のベンチマークテストで優れたパフォーマンスを発揮。
大規模言語モデル
Transformers 英語

E
liminerity
86
2
Skin Cancer Image Classification
Apache-2.0
視覚変換器(ViT)ベースの皮膚癌画像分類モデル、7種類の皮膚病変タイプを識別可能
画像分類
Transformers

S
Anwarkh1
3,309
22
Alzheimer MRI
Apache-2.0
Google ViTベースモデルをファインチューニングしたアルツハイマー病MRI画像分類モデルで、精度は92.6%
画像分類
Transformers

A
DHEIVER
354
2
Boreangale 70B
その他
BoreanGale-70Bは、カスタムアルゴリズム(NearSwap)を使用して統合された70Bパラメータの大規模言語モデルで、miqu-1-70b-sfとWinterGoddess-1.4x-70B-L2の2つのモデルを統合して作成されました。
大規模言語モデル
Transformers

B
alchemonaut
17
5
Strangemerges 17 7B Dare Ties
Apache-2.0
StrangeMerges_17-7B-dare_tiesは、LazyMergekitを使用してGille/StrangeMerges_16-7B-slerpとGille/StrangeMerges_12-7B-slerpの2つのモデルをdare_tiesマージ手法で統合したものです。
大規模言語モデル
Transformers

S
Gille
20
1
Tinycode Python
MIT
このモデルはbigcode/starcoderdataデータセットの58のPythonファイルのうち4つで学習されており、主にコード関連タスクに使用されます。
大規模言語モデル
Transformers 複数言語対応

T
blueapple8259
22
1
Orthogonal 2x7B V2 Base
orthogonal-2x7B-v2-baseは、Mistral-7B-Instruct-v0.2とSanjiWatsuki/Kunoichi-DPO-v2-7Bを基にした混合専門家モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
Transformers

O
LoSboccacc
80
1
- 1
- 2
- 3
- 4
- 5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98