Eva Giant Patch14 Clip 224.laion400m
MIT
EVA CLIPモデルはOpenCLIPとtimmフレームワークに基づく視覚言語モデルで、ゼロショット画像分類タスクをサポートします。
テキスト生成画像
E
timm
124
0
Eva02 Enormous Patch14 Clip 224.laion2b Plus
MIT
EVA-CLIPはCLIPアーキテクチャに基づく大規模視覚-言語モデルで、ゼロショット画像分類などのタスクをサポートします。
テキスト生成画像
E
timm
54
0
Eva02 Enormous Patch14 Clip 224.laion2b
MIT
EVA-CLIPはCLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類タスクをサポートします。
テキスト生成画像
E
timm
38
0
Eva02 Base Patch16 Clip 224.merged2b
MIT
EVA CLIPモデルはOpenCLIPとtimmフレームワークに基づいて構築された視覚言語モデルで、ゼロショット画像分類などのタスクをサポートします。
テキスト生成画像
E
timm
3,029
0
Vit Large Patch14 Clip 224.laion2b
Apache-2.0
CLIPアーキテクチャに基づく視覚Transformerモデル、画像特徴抽出に特化
画像分類
Transformers

V
timm
502
0
Vit Large Patch14 Clip 224.datacompxl
Apache-2.0
CLIPアーキテクチャに基づく視覚Transformerモデルで、画像特徴抽出専用にLAION組織によって公開されました。
画像分類
Transformers

V
timm
14
0
Vit Base Patch16 Clip 224.laion2b
Apache-2.0
CLIPアーキテクチャに基づく視覚Transformerモデルで、画像エンコーダ部分のみを含み、画像特徴抽出タスクに適しています
画像分類
Transformers

V
timm
4,460
0
Vit Base Patch16 Plus Clip 240.laion400m E31
MIT
LAION-400Mデータセットで訓練された視覚-言語デュアルユースモデル、ゼロショット画像分類タスクをサポート
画像分類
V
timm
37.23k
0
Resnet50x4 Clip.openai
MIT
CLIPアーキテクチャに基づくResNet50x4視覚言語モデルで、ゼロショット画像分類タスクをサポート
画像生成テキスト
R
timm
2,303
0
Resnet50 Clip.openai
MIT
ResNet50アーキテクチャとCLIP技術に基づくゼロショット画像分類モデル
画像分類
R
timm
11.91k
0
Mobileclip S0
その他
MobileCLIP S0は、Appleのml-mobileclipプロジェクトのONNX対応バージョンで、モバイルデバイス向けに最適化されたゼロショット画像分類モデルです。
テキスト生成画像
Transformers

M
Xenova
295
1
Vit Betwixt Patch32 Clip 224.tinyclip Laion400m
MIT
ViTアーキテクチャに基づく小型CLIPモデルで、ゼロショット画像分類タスクに適しており、LAION-400Mデータセットでトレーニングされています。
画像分類
V
timm
113
1
Vit Medium Patch32 Clip 224.tinyclip Laion400m
MIT
OpenCLIPライブラリに基づく視覚言語モデルで、ゼロショット画像分類タスクをサポートします。
画像分類
V
timm
110
0
Vit Medium Patch16 Clip 224.tinyclip Yfcc15m
MIT
ViTアーキテクチャに基づくCLIPモデル、ゼロショット画像分類タスク用
画像分類
V
timm
144
0
Chinese Clip Vit Base Patch16
ViTアーキテクチャに基づく中国語CLIPモデル、画像とテキストのマルチモーダル理解をサポート
テキスト生成画像
Transformers

C
Xenova
264
1
CLIP ViT B 32 CommonPool.S S13m B4k
MIT
CLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類タスクをサポート
テキスト生成画像
C
laion
79
0
CLIP ViT L 14 CommonPool.XL S13b B90k
MIT
CLIPアーキテクチャに基づく視覚-言語事前学習モデル、ゼロショット画像分類とクロスモーダル検索タスクをサポート
テキスト生成画像
C
laion
4,255
2
CLIP ViT B 16 CommonPool.L.clip S1b B8k
MIT
CLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類タスクをサポート
テキスト生成画像
C
laion
138
0
CLIP ViT B 32 DataComp.M S128m B4k
MIT
CLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類タスクをサポートし、DataComp.Mデータセットで学習済み
テキスト生成画像
C
laion
212
0
CLIP ViT B 32 CommonPool.M.laion S128m B4k
MIT
CLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類タスクをサポート
テキスト生成画像
C
laion
65
0
Eva02 Base Patch16 Clip 224.merged2b S8b B131k
MIT
EVA02アーキテクチャに基づくCLIPモデル、ゼロショット画像分類タスクに適応
テキスト生成画像
E
timm
29.73k
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98