Resencl OpenMind SimCLR
3D医療画像データ向け初の包括的な自己教師あり学習ベンチマーク研究モデル
3Dビジョン
R
AnonRes
16
0
Resencl OpenMind VoCo
3D医療画像データ向け初の包括的な自己教師あり学習ベンチマーク研究モデル
3Dビジョン
R
AnonRes
16
0
Prophetnet Large Uncased
ProphetNetはシーケンス・ツー・シーケンス学習の事前訓練言語モデルで、未来n-gram予測という自己教師あり目標を採用し、より多くの未来トークンを予測可能
大規模言語モデル 英語
P
microsoft
5,528
5
Voc2vec
Apache-2.0
voc2vecは非言語人間データ専用に設計された基礎モデルで、wav2vec 2.0フレームワークを基に構築されており、事前学習データセットには約125時間の非言語音声が含まれています。
音声分類
Transformers 英語

V
alkiskoudounas
223
2
Hubert Ecg Large
広範に拡張可能な心臓アプリケーション向けの自己教師あり基盤モデル。910万件の12誘導心電図を含む学習データで、164種類の心血管疾患をカバー
分子モデル
Transformers

H
Edoardo-BS
168
1
Lwm
LWMは無線通信分野初の基盤モデルで、汎用特徴抽出器として開発され、無線チャネルデータから精緻な表現を抽出できます。
物理学モデル
Transformers

L
wi-lab
137
3
Dasheng Base
Apache-2.0
大規模汎用音声エンコーダー、自己教師あり学習で訓練され、音声、音楽、環境音など多様な音声情報処理をサポート
音声分類
Transformers

D
mispeech
273
1
Berturk Legal
MIT
BERTurk-LegalはTransformerアーキテクチャに基づく言語モデルで、トルコ法律分野における過去の事例検索タスクに特化しています。
大規模言語モデル
Transformers その他

B
KocLab-Bilkent
382
6
Molformer XL Both 10pct
Apache-2.0
MoLFormerはZINCとPubChemの11億分子SMILES文字列で事前学習された化学言語モデルで、このバージョンは両データセットの10%サンプルで学習
分子モデル
Transformers

M
ibm-research
171.96k
19
Mert Base
MERTは自己教師あり学習に基づく音響音楽理解モデルで、教師モデルが提供する擬似ラベルを用いて事前学習を行います。
音声分類
Transformers

M
yangwang825
26
0
Videomae Small Finetuned Ssv2
VideoMAEはマスク自己符号化器(MAE)に基づくビデオ自己教師あり事前学習モデルで、Something-Something V2データセットでビデオ分類タスク用にファインチューニングされています。
動画処理
Transformers

V
MCG-NJU
140
0
Regnety 1280.seer
その他
RegNetY-128GF特徴抽出モデル、SEER手法を用いて20億枚のランダムなネットワーク画像で自己教師あり事前学習を実施
画像分類
Transformers

R
timm
62
0
Regnety 640.seer
その他
RegNetY-64GF特徴/バックボーンモデル、SEER手法を用いて20億枚のランダムなインターネット画像で自己教師あり事前学習を実施
画像分類
Transformers

R
timm
32
0
Regnety 320.seer
その他
RegNetY-32GF特徴抽出モデル、SEER手法で20億枚のランダムウェブ画像で事前学習済み、画像分類と特徴抽出タスクに適応
画像分類
Transformers

R
timm
19
0
Convnextv2 Pico.fcmae
ConvNeXt-V2自己教師あり特徴表現モデル、全畳み込みマスク自己符号化器フレームワーク(FCMAE)で事前学習され、画像分類と特徴抽出タスクに適しています。
画像分類
Transformers

C
timm
82
0
Convnextv2 Large.fcmae
ConvNeXt-V2ベースの自己教師あり特徴表現モデルで、全畳み込みマスク自己エンコーダーフレームワーク(FCMAE)を使用して事前学習されており、画像分類と特徴抽出タスクに適しています。
画像分類
Transformers

C
timm
314
0
Vit Msn Large 7
Apache-2.0
この視覚TransformerモデルはMSN手法で事前学習されており、少数ショットシナリオで優れた性能を発揮し、画像分類などのタスクに適しています
画像分類
Transformers

V
facebook
67
2
Vit Msn Base 4
Apache-2.0
この視覚TransformerモデルはMSN手法で事前学習されており、少数ショットシナリオで優れた性能を発揮し、画像分類などのタスクに適しています
画像分類
Transformers

V
facebook
62
1
Vit Msn Large
Apache-2.0
MSN手法で事前学習された視覚Transformerモデルで、少数ショットシナリオで優れた性能を発揮
画像分類
Transformers

V
facebook
48
1
Vit Msn Small
Apache-2.0
この視覚TransformerモデルはMSN手法で事前学習されており、少数ショット学習シナリオに適しており、特に画像分類タスクに最適です。
画像分類
Transformers

V
facebook
3,755
1
Videomae Base Short Ssv2
VideoMAEはマスク自己符号化器(MAE)に基づくビデオ自己教師あり事前学習モデルで、Something-Something-v2データセットで800エポックの事前学習を行いました。
動画処理
Transformers

V
MCG-NJU
112
2
Swinv2 Large Patch4 Window12to16 192to256 22kto1k Ft
Apache-2.0
Swin Transformer v2は、階層的特徴マップとローカルウィンドウ自己注意メカニズムにより、効率的な画像分類と密な認識タスクを実現するビジョントランスフォーマーモデルです。
画像分類
Transformers

S
microsoft
812
4
Swinv2 Base Patch4 Window16 256
Apache-2.0
Swin Transformer v2は、階層的特徴マップと局所ウィンドウ自己注意メカニズムにより、効率的な画像分類と密な認識タスクを実現する視覚Transformerモデルです。
画像分類
Transformers

S
microsoft
1,853
3
Swinv2 Base Patch4 Window8 256
Apache-2.0
Swin Transformer v2は、階層的特徴マップと局所ウィンドウ自己注意機構により効率的な画像分類と密な認識タスクを実現する視覚Transformerモデルです。
画像分類
Transformers

S
microsoft
16.61k
7
Swinv2 Small Patch4 Window8 256
Apache-2.0
Swin Transformer v2は、階層的特徴マップとローカルウィンドウ自己注意メカニズムを通じて効率的な画像処理を実現する視覚Transformerモデルです。
画像分類
Transformers

S
microsoft
1,836
0
Swinv2 Tiny Patch4 Window8 256
Apache-2.0
Swin Transformer v2はImageNet-1kで事前学習された視覚Transformerモデルで、階層的特徴マップと局所ウィンドウ自己注意機構を採用し、線形計算複雑性を持ちます。
画像分類
Transformers

S
microsoft
25.04k
10
Viwav2vec2 Base 3k
このモデルは3千時間のベトナム語音声データで事前学習されたWav2Vec2ベースモデルで、ベトナム語音声認識タスクに適しており、下流タスクで微調整して使用する必要があります。
音声認識
Transformers その他

V
dragonSwing
41
2
Regnet Y 1280 Seer In1k
Apache-2.0
ImageNet-1kで訓練されたRegNet画像分類モデル、自己教師あり事前学習とファインチューニング手法を採用
画像分類
Transformers

R
facebook
18
1
Regnet Y 640 Seer In1k
Apache-2.0
imagenet-1kで訓練されたRegNetモデル、自己教師あり方式で数十億枚のランダムなウェブ画像で事前学習後にファインチューニング
画像分類
Transformers

R
facebook
21
0
Dit Large Finetuned Rvlcdip
IIT-CDIPで事前学習し、RVL-CDIPでファインチューニングされた文書画像分類モデル、Transformerアーキテクチャを採用
画像分類
Transformers

D
microsoft
67
8
Dit Base Finetuned Rvlcdip
DiTはTransformerベースの文書画像分類モデルで、IIT-CDIPデータセットで事前学習され、RVL-CDIPデータセットでファインチューニングされています
画像分類
Transformers

D
microsoft
31.99k
30
Beit Base Patch16 224
Apache-2.0
BEiTはVision Transformerベースのモデルで、自己教師あり学習によりImageNet-21kで事前学習され、ImageNet-1kでファインチューニングされた画像分類タスク用モデルです。
画像分類
B
microsoft
58.34k
9
Beit Large Patch16 224
Apache-2.0
BEiTはVision Transformer(ViT)アーキテクチャに基づく画像分類モデルで、自己教師あり学習によりImageNet-21kで事前学習され、ImageNet-1kでファインチューニングされています。
画像分類
B
microsoft
222.46k
1
Xlm Align Base
XLM-Alignは94言語をサポートする事前学習済みの言語間モデルで、自己注釈付き単語アラインメントにより言語間事前学習モデルを改善します。
大規模言語モデル
Transformers

X
microsoft
354
9
Tapas Tiny
Apache-2.0
TAPASはTransformerベースの表質問応答モデルで、ウィキペディア英語表データを用いた自己教師あり方式で事前学習され、表質問応答と含意判断タスクをサポートします。
大規模言語モデル
Transformers 英語

T
google
44
0
Beit Base Patch16 224
Apache-2.0
BEiTは画像トランスフォーマーに基づく視覚モデルで、BERTのような自己教師あり事前学習手法を採用し、最初にImageNet-22kで事前学習とファインチューニングを行い、その後ImageNet-1kでさらにファインチューニングを行います。
画像分類
B
nielsr
28
0
Xlm Roberta Xxl
MIT
XLM-RoBERTa-XLは、100言語を含む2.5TBのフィルタリングされたCommonCrawlデータで事前学習された多言語モデルで、RoBERTaアーキテクチャの超大規模バージョンです。
大規模言語モデル
Transformers 複数言語対応

X
facebook
13.19k
15
Beit Base Patch16 384
Apache-2.0
BEiTはビジョントランスフォーマーアーキテクチャに基づく画像分類モデルで、ImageNet-21kで自己教師あり方式で事前学習され、ImageNet-1kでファインチューニングされています。
画像分類
B
microsoft
146
5
Core Clinical Mortality Prediction
COReモデルはBioBERTアーキテクチャに基づいており、臨床記録、疾患説明、医学文献に対して事前学習を行い、患者の院内死亡リスクを予測するために設計されています。
テキスト分類
Transformers 英語

C
DATEXIS
924
3
Beit Large Finetuned Ade 640 640
Apache-2.0
BEiTはビジョントランスフォーマーアーキテクチャに基づく画像セグメンテーションモデルで、自己教師あり事前学習とADE20kデータセットによるファインチューニングにより効率的なセマンティックセグメンテーションを実現します。
画像セグメンテーション
Transformers

B
microsoft
14.97k
14
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98