Minueza 2 96M
Apache-2.0
Llamaアーキテクチャに基づくコンパクトな言語モデルで、英語とポルトガル語をサポート、パラメータ数9600万、4096トークンのコンテキスト長に対応。
大規模言語モデル
Transformers 複数言語対応

M
Felladrin
357
6
Deepseek R1 Distill Qwen 1.5B
MIT
DeepSeek-R1-Distill-Qwen-1.5Bの複数のバリエーションを基に、LiteRTフレームワークとMediaPipe LLM推論APIに適合し、Androidプラットフォームにデプロイ可能です。
大規模言語モデル
D
litert-community
138
4
Llama 3.2 3B Instruct SpinQuant INT4 EO8
Llama 3.2はMetaが提供する1Bおよび3Bパラメータ規模の多言語事前学習および指示チューニング生成モデルで、多言語対話ユースケースに最適化されており、8つの公式言語をサポートしています。
大規模言語モデル
PyTorch 複数言語対応
L
meta-llama
30.02k
35
Coreml Sam2.1 Tiny
Apache-2.0
SAM 2.1 TinyはFacebook AI Research (FAIR)が開発した軽量な画像・動画汎用セグメンテーションモデルで、プロンプトベースの制御可能な視覚セグメンテーションをサポートします。
画像セグメンテーション
C
apple
68
6
Llama 3.2 3B Instruct AWQ
Llama 3.2はMetaが提供する多言語大規模言語モデルのコレクションで、1Bおよび3Bパラメータ規模の事前学習版と指示チューニング版を含み、多言語対話ユースケース向けに最適化され、8つの公式言語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

L
AMead10
4,500
2
Coreml Depth Anything V2 Small
Apache-2.0
Depth Anything V2 はDPTアーキテクチャに基づく深度推定モデルで、DINOv2バックボーンネットワークを採用し、大規模な合成データと実データでトレーニングされ、精密かつロバストな深度予測を実現します。
3Dビジョン
C
apple
67
58
Imp V1.5 4B Phi3
Apache-2.0
Imp-v1.5-4B-Phi3は高性能で軽量なマルチモーダル大規模モデルで、わずか40億パラメータを持ち、Phi-3フレームワークとSigLIP視覚エンコーダーに基づいて構築されています。
テキスト生成画像
Transformers

I
MILVLG
140
7
Coreml Depth Anything Small
Apache-2.0
Depth AnythingはDPTアーキテクチャとDINOv2バックボーンネットワークに基づく深度推定モデルで、約6200万枚の画像で訓練され、相対的および絶対的深度推定タスクで最先端の結果を達成しています。
3Dビジョン
C
apple
51
36
Mobileclip S2
その他
MobileCLIP S2 は軽量な視覚-言語モデルで、画像特徴抽出とゼロショット画像分類タスクに特化しています。
テキスト生成画像
Transformers

M
Xenova
86
2
Mobileclip S0
その他
MobileCLIP S0は、Appleのml-mobileclipプロジェクトのONNX対応バージョンで、モバイルデバイス向けに最適化されたゼロショット画像分類モデルです。
テキスト生成画像
Transformers

M
Xenova
295
1
Plant Disease Detection Project
その他
MobileNet V2はモバイルデバイス向けに設計された軽量な畳み込みニューラルネットワークで、遅延、モデルサイズ、精度のバランスを実現しています。
画像分類
Transformers

P
Diginsa
242.43k
4
Mobilevitv2 1.0 Voc Deeplabv3
その他
MobileViTv2アーキテクチャとDeepLabV3ヘッドを組み合わせたセマンティックセグメンテーションモデルで、PASCAL VOCデータセットで512x512解像度で事前学習済み
画像セグメンテーション
Transformers

M
apple
29
1
Mobilenet V2 1.0 224 Plant Disease Identification
その他
MobileNetV2アーキテクチャに基づいて微調整された植物病害識別モデルで、プラントビレッジデータセットで95.41%の精度を達成
画像分類
Transformers

M
linkanjarad
3,565
26
Efficientnet B7
Apache-2.0
EfficientNetは、深さ、幅、解像度を統一してスケーリングすることで高性能な画像分類を実現する効率的な畳み込みニューラルネットワークです
画像分類
Transformers

E
google
6,522
17
Efficientnet B6
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みモデルで、複合係数による深さ/幅/解像度の統一スケーリングを行い、ImageNet-1kデータセットで学習されています
画像分類
Transformers

E
google
167
0
Efficientnet B4
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みモデルで、複合係数を用いて深さ、幅、解像度の次元を統一調整し、ImageNet-1kデータセットで学習されています。
画像分類
Transformers

E
google
5,528
1
Efficientnet B3
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みニューラルネットワークで、複合係数により深さ/幅/解像度の次元を統一調整し、効率的なスケーリングを実現
画像分類
Transformers

E
google
418
2
Efficientnet B2
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みモデルで、複合係数による深さ/幅/解像度の統一スケーリングにより、画像分類タスクで優れた性能を発揮します。
画像分類
Transformers

E
google
276.94k
2
Efficientnet B1
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みニューラルネットワークで、複合係数により深さ/幅/解像度の次元を統一調整することで効率的なスケーリングを実現します。
画像分類
Transformers

E
google
1,868
1
Efficientnet B0
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みモデルで、複合係数による深さ/幅/解像度の統一スケーリングを行い、ImageNet-1kデータセットで学習されています。
画像分類
Transformers

E
google
17.12k
12
Efficientformer L3 300
Apache-2.0
EfficientFormer-L3はSnap Researchが開発した軽量なVision Transformerモデルで、モバイルデバイス向けに最適化されており、高性能を維持しながら低遅延を実現しています。
画像分類 英語
E
snap-research
279
2
Mobilenet V1 0.75 192
その他
MobileNet V1はモバイルデバイス向けに設計された軽量な畳み込みニューラルネットワークで、画像分類タスクにおいて遅延、モデルサイズ、精度のバランスを取っています。
画像分類
Transformers

M
google
31.54k
2
Mobilenet V1 1.0 224
その他
MobileNet V1は、モバイルおよび組み込み向けの軽量な畳み込みニューラルネットワークで、ImageNet-1kデータセットで事前学習されています。
画像分類
Transformers

M
google
5,344
1
Deeplabv3 Mobilenet V2 1.0 513
その他
MobileNetV2アーキテクチャとDeepLabV3+セグメンテーションヘッドを組み合わせた軽量セマンティックセグメンテーションモデルで、PASCAL VOCデータセットで事前学習済み
画像セグメンテーション
Transformers

D
google
3,129
8
Mobilenet V2 0.35 96
その他
MobileNet V2は、モバイルデバイス向けに最適化された小型・低遅延・低消費電力の視覚モデルです
画像分類
Transformers

M
google
540
1
Mobilenet V2 0.75 160
その他
MobileNet V2はモバイルデバイス向けに最適化された軽量なコンピュータビジョンモデルで、画像分類タスクで優れた性能を発揮します。
画像分類
Transformers

M
google
480
2
Mobilenet V2 1.0 224
その他
MobileNet V2はモバイルデバイス向けに最適化された軽量視覚モデルで、画像分類タスクで優れた性能を発揮します。
画像分類
Transformers

M
google
69.47k
29
Mobilenet V2 1.4 224
その他
ImageNet-1kデータセットで事前学習された軽量画像分類モデル、モバイルデバイス向けに最適化設計
画像分類
Transformers

M
google
737
1
Mobilenet V2 1.4 224
その他
MobileNet V2はモバイルデバイス向けに設計された軽量な畳み込みニューラルネットワークで、画像分類タスクで優れた性能を発揮します。
画像分類
Transformers

M
Matthijs
26
0
Mobilenet V2 1.0 224
その他
MobileNet V2はモバイルデバイス向けに設計された軽量な畳み込みニューラルネットワークで、画像分類タスクで優れた性能を発揮します。
画像分類
Transformers

M
Matthijs
29
0
Mobilenet V1 1.0 224
その他
MobileNet V1は、モバイルおよび組み込み向けの視覚アプリケーション向けに設計された軽量な畳み込みニューラルネットワークで、ImageNet-1kデータセットで事前学習されています。
画像分類
Transformers

M
Matthijs
41
0
Deeplabv3 Mobilevit Xx Small
その他
PASCAL VOCデータセットで事前学習された軽量セマンティックセグメンテーションモデル、MobileViTとDeepLabV3アーキテクチャを組み合わせ
画像セグメンテーション
Transformers

D
apple
1,571
10
Deeplabv3 Mobilevit X Small
その他
軽量なビジョントランスフォーマーモデルで、MobileNetV2とトランスフォーマーモジュールを組み合わせ、モバイル向けセマンティックセグメンテーションタスクに適しています。
画像セグメンテーション
Transformers

D
apple
268
3
Deeplabv3 Mobilevit Small
軽量な視覚Transformerモデルで、MobileNetV2とTransformerモジュールを組み合わせ、モバイル端末向けセマンティックセグメンテーションタスクに適している
画像セグメンテーション
Transformers

D
apple
817
16
Mobilevit Xx Small
その他
MobileViTは、軽量で低遅延の視覚Transformerモデルで、CNNとTransformerの利点を組み合わせており、モバイルデバイスに適しています。
画像分類
Transformers

M
apple
6,077
16
Doctr Dummy Torch Crnn Mobilenet V3 Small
TensorFlow 2とPyTorchベースの光学文字認識(OCR)モデル、文書画像内のテキスト検出と認識をサポート
文字認識
Transformers 英語

D
Felix92
125
2
Mobilebert Uncased Squad V2
MIT
MobileBERTアーキテクチャに基づく質問応答モデルで、SQuAD v2データセット向けにファインチューニングされています
質問応答システム
Transformers

M
vumichien
32
0
Mobilebert Uncased Mnli
このモデルは、大文字小文字を区別しないMobileBERTモデルを多ジャンル自然言語推論(MNLI)タスクでファインチューニングしたバージョンで、ゼロショット分類タスクに適しています。
テキスト分類
Transformers 英語

M
typeform
285
14
Mobilebert Finetuned Ner
MIT
MobileBERTは、モバイルデバイス向けに最適化された軽量なBERTの変種で、効率的な推論速度と小さなモデルサイズを特徴とします。
シーケンスラベリング
Transformers 複数言語対応

M
mrm8488
115
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98