# 軽量アーキテクチャ

Dolphin
MIT
ドルフィンは革新的なマルチモーダルドキュメント画像解析モデルで、'分析してから解析する'というパラダイムを用いて複雑なドキュメント要素を処理します。
画像生成テキスト Transformers 複数言語対応
D
ByteDance
1,620
219
Gemma 3 4b Abliterated
これはgoogle/gemma-3-4b-itのテキスト専用軽量バージョンで、視覚エンコーダーを削除し、テキスト生成タスクに特化しています。
大規模言語モデル Transformers
G
lunahr
136
2
Sam2 Hiera Small.fb R896
Apache-2.0
HieraDet画像エンコーダーに基づくSAM2モデルで、画像特徴抽出タスクに特化しています。
画像セグメンテーション Transformers
S
timm
142
0
Linknet Tu Resnet18
MIT
LinknetはPyTorchで実装された画像セグメンテーションモデルで、セマンティックセグメンテーションタスクに適しています。
画像セグメンテーション Safetensors
L
smp-test-models
214
0
Allegro T2V 40x720P
Apache-2.0
Allegroはオープンソースの高品質なテキストから動画を生成するモデルで、2秒から6秒、15 FPSの詳細な動画を生成でき、複数の解像度をサポートしています。
テキスト生成ビデオ 英語
A
rhymes-ai
21
2
Allegro T2V 40x360P
Apache-2.0
Allegroはオープンソースのテキスト生成ビデオモデルで、高品質で多様な動的シーンビデオを生成できます。
テキスト生成ビデオ 英語
A
rhymes-ai
21
1
Chronos T5 Tiny
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、量子化とスケーリングにより時系列をトークン系列に変換して学習します。
気候モデル Transformers
C
autogluon
318.45k
12
Hiera Huge 224 Hf
Hieraは効率的な階層型ビジョントランスフォーマーモデルで、画像・動画タスクにおいて優れた性能と高速処理を実現
画像分類 Transformers 英語
H
facebook
41
1
Hiera Large 224 Hf
Hieraは階層型視覚Transformerモデルで、高速で強力かつシンプルな特性を持ち、画像・動画タスクにおいて既存技術を凌駕しつつ高速に動作します。
画像分類 Transformers 英語
H
facebook
532
1
Hiera Base Plus 224 Hf
Hieraは階層型ビジョントランスフォーマーモデルで、高速・強力・シンプルな特性を兼ね備え、幅広い画像・動画タスクにおいて既存技術を凌駕するとともに、実行速度を大幅に向上させます。
画像分類 Transformers 英語
H
facebook
15
0
Hiera Base 224 Hf
Hieraは階層型視覚Transformerモデルで、高速・強力・簡潔な特徴を持ち、画像・動画タスクで優れた性能を発揮します。
画像分類 Transformers 英語
H
facebook
163
0
Tiny Mistral
Mistralアーキテクチャのランダム初期化モデルで、エンドツーエンドテストに適しています。
大規模言語モデル Transformers
T
openaccess-ai-collective
23.43k
14
Chatdoctor
Apache-2.0
これはApache-2.0ライセンスに基づくオープンソースモデルで、具体的な機能と用途は実際のモデルによって決定されます
大規模言語モデル Transformers
C
mncai
124
12
Ruleanalbert
Apache-2.0
RuLeanALBERT はロシア語事前学習用のマスク言語モデルで、メモリ効率の高いアーキテクチャを採用しています。
大規模言語モデル Transformers その他
R
yandex
80
35
Efficientnet 61 Planet Detection
Apache-2.0
EfficientNetV2は、トレーニング速度とパラメータ効率を特に最適化した効率的な畳み込みニューラルネットワークアーキテクチャです。61チャンネル版はこのアーキテクチャのバリエーションです。
画像分類 Transformers
E
chlab
14
0
Levit 256
Apache-2.0
LeViT-256はTransformerアーキテクチャに基づく効率的な視覚モデルで、高速推論のために設計され、ImageNet-1kデータセットで事前学習されています。
画像分類 Transformers
L
facebook
37
0
Roberta Small Bulgarian
これはブルガリア語RoBERTaモデルの簡易版で、6つの隠れ層のみを含みますが、同等の性能を維持しています。
大規模言語モデル その他
R
iarfmoose
21
0
Cspdarknet53 Mish
Apache-2.0
ImageNetteデータセットで事前学習されたCSP-Darknet-53 Mishアーキテクチャの画像分類モデル
画像分類 Transformers
C
frgfm
14
0
Rexnet1 3x
Apache-2.0
ReXNet-1.3xはReXNetアーキテクチャに基づく画像分類モデルで、ImageNetteデータセットで事前学習されています。このモデルは残差ブロック内のSqueeze-Excitation層を改良することでチャネル冗長性を削減します。
画像分類 Transformers
R
frgfm
15
0
Albert Large Arabic
ALBERT大規模モデルのアラビア語事前学習版で、約44億語のアラビア語コーパスで学習
大規模言語モデル Transformers アラビア語
A
asafaya
45
1
Bert Xsmall Dummy
これは小型BERTモデルの仮想サンプルで、デモンストレーションとテスト目的で使用されます。
大規模言語モデル
B
julien-c
27.12k
0
Roberta Base 100M 1
10億トークンスケールで事前学習されたRoBERTaベースモデル、検証パープレキシティは3.93、英語テキスト処理タスクに適しています。
大規模言語モデル
R
nyu-mll
63
0
Rexnet1 5x
Apache-2.0
ReXNet-1.5x は、ImageNetteデータセットで事前学習された軽量画像分類モデルで、ReXNetアーキテクチャを採用し、残差ブロック内のSqueeze-Excitation層を改良してチャネル冗長性を削減しています。
画像分類 Transformers
R
frgfm
15
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase