Vit Large Patch16 Siglip 512.v2 Webli
Apache-2.0
SigLIP 2に基づくViT画像エンコーダ、timm向けに設計され、視覚-言語タスクに適応
画像分類
Transformers

V
timm
295
0
Aimv2 Huge Patch14 448.apple Pt
AIMv2はtimmライブラリに基づく画像エンコーダーモデルで、超大サイズパッチ14_448アーキテクチャを採用し、画像特徴抽出タスクに適しています。
画像分類
Transformers

A
timm
66
0
Vit Base Patch16 Siglip 256.webli I18n
Apache-2.0
SigLIPベースのViT-B-16視覚Transformerモデル、画像エンコーダーのみを含み、オリジナルアテンションプーリングを採用
画像分類
Transformers

V
timm
16
0
Speecht5 Tts Hr
MIT
クロアチア語に最適化されたSpeechT5テキスト音声変換ファインチューニングモデル、マイクロソフトSpeechT5アーキテクチャとVoxPopuliデータセットでトレーニング
音声合成
Transformers その他

S
nikolab
124
1
Speecht5 Asr
MIT
LibriSpeechデータセットでファインチューニングされたSpeechT5自動音声認識モデルで、音声をテキストに変換する機能をサポートしています。
音声認識
Transformers

S
microsoft
12.30k
41
Xclip Base Patch16 Hmdb 8 Shot
MIT
X-CLIPはCLIPの拡張版で、ビデオと言語の汎用的な理解のために、ビデオとテキストのペアで対照学習を行い、ビデオ分類やビデオ-テキスト検索タスクに適しています。
テキスト生成ビデオ
Transformers 英語

X
microsoft
17
1
Xclip Base Patch16 Hmdb 4 Shot
MIT
X-CLIPはCLIPのミニマルな拡張で、汎用的なビデオ言語理解のために、(ビデオ、テキスト)ペアの対照学習方式でトレーニングされています。
ビデオ生成テキスト
Transformers 英語

X
microsoft
22
1
Unixcoder Base Nine
Apache-2.0
UniXcoderは、コードコメントや抽象構文木などのマルチモーダルデータを活用してコード表現を事前学習する統一マルチモーダル事前学習モデルです。
マルチモーダル融合
Transformers 英語

U
microsoft
17.35k
19
Unixcoder Base
Apache-2.0
UniXcoderは統一されたマルチモーダル事前学習モデルで、コードコメントや抽象構文木などのマルチモーダルデータを使用してコード表現を事前学習します。
マルチモーダル融合
Transformers 英語

U
microsoft
347.45k
51
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98