# 教師なし事前学習

Sam2 Hiera Base Plus.fb R896
Apache-2.0
HieraDet画像エンコーダーに基づくSAM2モデルで、画像特徴抽出タスクに特化しています。
画像セグメンテーション Transformers
S
timm
764
0
Dinov2 With Registers Base
Apache-2.0
DINOv2でトレーニングされた視覚Transformerモデルで、レジスタトークンを追加することでアテンションメカニズムを最適化し、特徴抽出能力を向上
画像分類 Transformers
D
facebook
22.74k
5
Depth Anything V2 Small
Apache-2.0
Depth Anything V2 は現在最も性能の高い単眼深度推定モデルで、大規模な合成画像と実画像でトレーニングされており、V1バージョンと比較してより細かい詳細を捕捉でき、よりロバストです。
3Dビジョン 英語
D
depth-anything
55.22k
64
C RADIO
その他
NVIDIAが開発した視覚特徴抽出モデルで、画像埋め込みを生成し、画像分類などの下流タスクをサポートします。
Transformers
C
nvidia
398
14
RADIO
NVIDIAが開発した視覚特徴抽出モデルで、画像を埋め込みベクトルに変換し下流タスクに利用可能
Transformers
R
nvidia
5,166
36
Esm1b T33 650M UR50S
MIT
ESM-1bはTransformerベースのタンパク質言語モデルで、教師なし学習によりタンパク質配列データを学習し、タンパク質の構造や機能予測に利用できます。
タンパク質モデル Transformers
E
facebook
24.20k
18
Wav2vec2 Nsc Final 1 Google Colab
wav2vec2アーキテクチャに基づく音声処理モデル、トレーニング詳細は完全に公開されていません
音声認識 Transformers
W
YuanWellspring
99
0
Assignment1 Omar
Apache-2.0
Wav2Vec2は自己教師あり学習に基づく音声認識モデルで、LibriSpeechの960時間の音声データで事前学習と微調整が行われ、英語音声の書き起こしをサポートします。
音声認識 Transformers 英語
A
Classroom-workshop
28
0
Response Quality Classifier Large
MIT
このモデルは会話中の最後のメッセージの関連性と具体性を評価するために使用され、sberbank-ai/ruRoberta-largeアーキテクチャに基づいています。
対話システム Transformers その他
R
t-bank-ai
33
11
Viwav2vec2 Base 1.5k
このモデルは1.5千時間のベトナム語音声データで事前学習されており、ベトナム語音声認識タスクに適しています。使用前に微調整が必要です。
音声認識 Transformers その他
V
dragonSwing
38
0
Mt5 Xl
Apache-2.0
mT5はT5モデルの多言語版で、101言語をサポートし、mC4コーパスで事前学習されており、様々な自然言語処理タスクに適しています。
大規模言語モデル 複数言語対応
M
google
3,104
24
Mgpt
mGPTはmC4データセットで事前学習された多言語生成モデルで、101言語をサポートし、GPT-2に似たTransformerアーキテクチャを採用しています。
大規模言語モデル Transformers
M
THUMT
147
8
T5 V1 1 Large
Apache-2.0
T5 1.1はグーグルが改良したテキストからテキストへの変換モデルで、GEGLU活性化関数を採用し、アーキテクチャを最適化し、教師なし事前学習に特化しています。
大規模言語モデル 英語
T
google
111.29k
17
Wav2vec2 Large Baltic Voxpopuli V2
FacebookのWav2Vec2大型モデルで、バルト語族のVoxPopuliコーパスのみを使って27.5時間の無ラベルデータで事前学習されました。
音声認識 Transformers
W
facebook
25
0
Wav2vec2 Large Romance Voxpopuli V2
FacebookのWav2Vec2大型モデル、ロマンス語族のVoxPopuliコーパス101.5時間の未ラベルデータのみで事前学習され、音声認識タスクに適しています。
音声認識 Transformers
W
facebook
26
0
Wav2vec2 Large It Voxpopuli
VoxPopuliイタリア語無注釈データで事前学習された音声認識モデル、FacebookのWav2Vec2アーキテクチャを採用
音声認識 その他
W
facebook
55
0
Wav2vec2 Base Lt Voxpopuli V2
これはFacebookのWav2Vec2アーキテクチャに基づく音声モデルで、リトアニア語に特化して事前学習されており、VoxPopuliコーパスの14.4kの未ラベルデータを使用しています。
音声認識 Transformers その他
W
facebook
31
0
Mt5 Large
Apache-2.0
mT5はGoogleが開発した多言語テキスト間変換モデルで、101言語をサポートし、mC4データセットで事前学習されています。
大規模言語モデル 複数言語対応
M
google
404.82k
90
Wav2vec2 Base 100k Voxpopuli
大衆の声コーパス10万件の未注釈データで事前学習された音声認識基本モデル
音声認識 Transformers その他
W
facebook
148
4
T5 V1 1 Base
Apache-2.0
T5 1.1はGoogleが改良したテキストからテキストへの変換モデルで、GEGLU活性化関数と最適化されたアーキテクチャを採用し、教師なし事前学習に焦点を当てています
大規模言語モデル 英語
T
google
150.73k
58
Mt5 Xxl
Apache-2.0
mT5はGoogleが開発した多言語テキスト-to-テキスト変換モデルで、101言語に対応し、mC4データセットを用いて事前学習され、様々なNLPタスクに適用可能です。
大規模言語モデル Transformers 複数言語対応
M
google
7,532
68
Wav2vec2 Base It Voxpopuli
VoxPopuliのイタリア語無注釈データで事前学習されたWav2Vec2ベースモデル、音声認識タスクに適しています。
音声認識 Transformers その他
W
facebook
32
0
Wav2vec2 Base Cs Voxpopuli V2
VoxPopuliコーパスで事前学習されたWav2Vec2ベースモデル、チェコ語音声処理に特化
音声認識 Transformers その他
W
facebook
33
1
Wav2vec2 Large North Germanic Voxpopuli V2
北ゲルマン語系VoxPopuliコーパスで事前学習された大規模音声モデル
音声認識 Transformers
W
facebook
25
0
Wav2vec2 Large 100k Voxpopuli
VoxPopuliコーパスの10万件の未注釈データで事前学習された音声認識モデルで、多言語音声表現学習をサポート
音声認識 その他
W
facebook
2,218
4
Wav2vec2 Base Es Voxpopuli V2
Wav2Vec2の基礎モデルで、スペイン語の21.4kの無ラベルデータのみで事前学習され、音声認識タスクに適しています。
音声認識 Transformers スペイン語
W
facebook
46
1
Gpt2 Distil Chinese Cluecorpussmall
CLUECorpusSmallで事前学習された中国語GPT2軽量モデル、パラメータ規模は6層/768隠れ層、中国語テキスト生成タスクに適しています
大規模言語モデル 中国語
G
uer
1,043
20
Wav2vec2 Large Mt Voxpopuli V2
FacebookのWav2Vec2大型モデル、マルタ語(mt)のみでVoxPopuliコーパスの未ラベルデータを使用して事前学習され、音声認識タスクに適しています。
音声認識 Transformers その他
W
facebook
25
0
Mt5 Base
Apache-2.0
mT5はT5モデルの多言語バリアントで、101言語をカバーするmC4コーパスで事前学習されており、多言語テキスト処理タスクに適しています。
大規模言語モデル 複数言語対応
M
google
118.49k
229
Wav2vec2 Large Nl Voxpopuli
VoxPopuliコーパスのオランダ語サブセットで事前学習された自動音声認識モデル
音声認識 その他
W
facebook
18
0
Wav2vec2 Base Fi Voxpopuli V2
Facebook Wav2Vec2アーキテクチャに基づく音声モデルで、フィンランド語に特化して事前学習されており、音声認識タスクに適しています。
音声認識 Transformers その他
W
facebook
29
1
Wav2vec2 Base De Voxpopuli V2
Facebook Wav2Vec2アーキテクチャに基づくドイツ語音声事前学習モデルで、VoxPopuliコーパスの23.2kの未ラベルドイツ語データを使用して事前学習されています。
音声認識 Transformers ドイツ語
W
facebook
44
1
Wav2vec2 Base Sl Voxpopuli V2
これはFacebookのWav2Vec2アーキテクチャに基づく音声モデルで、スロベニア語(sl)に特化して事前学習されており、VoxPopuliコーパスから11.3kの未ラベルデータを使用しています。
音声認識 Transformers その他
W
facebook
31
0
Wav2vec2 Base Lv Voxpopuli V2
FacebookのWav2Vec2アーキテクチャに基づく音声認識の基礎モデルで、ラトビア語(lv)に特化して事前学習されており、VoxPopuliコーパスの13.1kの未ラベル付きデータを使用しています。
音声認識 Transformers その他
W
facebook
29
1
T5 V1 1 Small
Apache-2.0
T5バージョン1.1はGoogleが改良したテキストからテキストへの変換モデルで、GEGLU活性化関数を採用し、C4データセットのみで教師なし事前学習を行い、ファインチューニング後に使用する必要があります。
大規模言語モデル 英語
T
google
127.68k
26
Wav2vec2 Base Hu Voxpopuli V2
Facebook Wav2Vec2アーキテクチャに基づく音声事前学習モデル、VoxPopuliコーパスのハンガリー語データで事前学習済み
音声認識 Transformers その他
W
facebook
30
0
Wav2vec2 Large Slavic Voxpopuli V2
FacebookのWav2Vec2大型モデルで、スラブ語系のVoxPopuliコーパスにおいて88.99999999999999時間の未ラベルデータ事前学習を行っています。
音声認識 Transformers
W
facebook
26
0
Wav2vec2 Base Da Voxpopuli V2
Facebook Wav2Vec2アーキテクチャに基づく音声モデルで、デンマーク語に特化して事前学習されており、VoxPopuliコーパスの13.6kの未ラベルデータを使用しています。
音声認識 Transformers その他
W
facebook
35
0
Wav2vec2 Base 10k Voxpopuli Ft En
VoxPopuliコーパスの10Kラベルなしサブセットで事前学習され、英語書き起こしデータでファインチューニングされたWav2Vec2ベースモデルで、英語音声認識タスクに適しています。
音声認識 Transformers 英語
W
facebook
40
1
Wav2vec2 Large Es Voxpopuli
VoxPopuliコーパスのスペイン語サブセットでトレーニングされた大規模音声事前学習モデルで、スペイン語音声認識タスクに適しています
音声認識 スペイン語
W
facebook
117.04k
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase