Webssl Dino7b Full8b 378
80億の言語注釈なしウェブ画像で訓練された70億パラメータの視覚Transformerモデル。自己教師あり学習により優れた視覚表現能力を実現
画像分類
Transformers

W
facebook
68
0
Aimv2 1b Patch14 224.apple Pt
AIM-v2はtimmライブラリベースの画像エンコーダモデルで、10億パラメータ規模を持ち、画像特徴抽出タスクに適しています。
画像分類
Transformers

A
timm
198
0
Sam2 Hiera Small.fb R896
Apache-2.0
HieraDet画像エンコーダーに基づくSAM2モデルで、画像特徴抽出タスクに特化しています。
画像セグメンテーション
Transformers

S
timm
142
0
Resnet101 Clip.yfcc15m
MIT
YFCC-15MデータセットでトレーニングされたCLIPスタイルのデュアルモーダルモデル、open_clipとtimmフレームワークに互換性あり
画像分類
R
timm
134
0
Mambavision B 1K
Apache-2.0
PAVEはビデオ大規模言語モデルの修復と適応に特化したモデルで、ビデオとテキスト間の変換能力を向上させることを目的としています。
ビデオ生成テキスト
Transformers

M
nvidia
1,082
11
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98