# クロスモーダル事前学習

Vit Large Patch16 Siglip 512.v2 Webli
Apache-2.0
SigLIP 2に基づくViT画像エンコーダ、timm向けに設計され、視覚-言語タスクに適応
画像分類 Transformers
V
timm
295
0
Aimv2 Huge Patch14 448.apple Pt
AIMv2はtimmライブラリに基づく画像エンコーダーモデルで、超大サイズパッチ14_448アーキテクチャを採用し、画像特徴抽出タスクに適しています。
画像分類 Transformers
A
timm
66
0
Vit Base Patch16 Siglip 256.webli I18n
Apache-2.0
SigLIPベースのViT-B-16視覚Transformerモデル、画像エンコーダーのみを含み、オリジナルアテンションプーリングを採用
画像分類 Transformers
V
timm
16
0
Speecht5 Tts Hr
MIT
クロアチア語に最適化されたSpeechT5テキスト音声変換ファインチューニングモデル、マイクロソフトSpeechT5アーキテクチャとVoxPopuliデータセットでトレーニング
音声合成 Transformers その他
S
nikolab
124
1
Speecht5 Asr
MIT
LibriSpeechデータセットでファインチューニングされたSpeechT5自動音声認識モデルで、音声をテキストに変換する機能をサポートしています。
音声認識 Transformers
S
microsoft
12.30k
41
Xclip Base Patch16 Hmdb 8 Shot
MIT
X-CLIPはCLIPの拡張版で、ビデオと言語の汎用的な理解のために、ビデオとテキストのペアで対照学習を行い、ビデオ分類やビデオ-テキスト検索タスクに適しています。
テキスト生成ビデオ Transformers 英語
X
microsoft
17
1
Xclip Base Patch16 Hmdb 4 Shot
MIT
X-CLIPはCLIPのミニマルな拡張で、汎用的なビデオ言語理解のために、(ビデオ、テキスト)ペアの対照学習方式でトレーニングされています。
ビデオ生成テキスト Transformers 英語
X
microsoft
22
1
Unixcoder Base Nine
Apache-2.0
UniXcoderは、コードコメントや抽象構文木などのマルチモーダルデータを活用してコード表現を事前学習する統一マルチモーダル事前学習モデルです。
マルチモーダル融合 Transformers 英語
U
microsoft
17.35k
19
Unixcoder Base
Apache-2.0
UniXcoderは統一されたマルチモーダル事前学習モデルで、コードコメントや抽象構文木などのマルチモーダルデータを使用してコード表現を事前学習します。
マルチモーダル融合 Transformers 英語
U
microsoft
347.45k
51
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase