Supervised Contrastive Learning Cifar10
これは監督付きコントラスト学習技術を用いて訓練されたCIFAR - 10画像分類モデルで、テスト精度は81.06%に達します。
ダウンロード数 29
リリース時間 : 3/2/2022
モデル概要
このモデルは監督付きコントラスト学習方法を使用してCIFAR - 10データセットで訓練され、飛行機、自動車、鳥など10種類の一般的な物体の画像分類が可能です。従来の方法と比較して、コントラスト学習を採用することでモデルの性能が向上しています。
モデル特徴
監督付きコントラスト学習
Prannay Khoslaらが提案した監督付きコントラスト学習方法を採用し、従来の分類方法と比較してより識別性の高い特徴表現を学習できます。
性能向上
コントラスト学習方法により、モデルのCIFAR - 10でのテスト精度が81.06%に達し、従来の方法(79.88%)より向上しています。
軽量実装
tf - kerasに基づいて実装されており、デプロイと統合が容易です。
モデル能力
画像分類
特徴抽出
使用事例
コンピュータビジョン
物体認識
画像中の一般的な物体のクラスを識別します。
CIFAR - 10データセットで81.06%の精度を達成しました。
教育デモ
コンピュータビジョンにおけるコントラスト学習の応用を教えるために使用します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98