# 輕量級架構

Dolphin
MIT
海豚是一種創新的多模態文檔圖像解析模型,採用'先分析後解析'的範式處理複雜文檔元素。
圖像生成文本 Transformers 支持多種語言
D
ByteDance
1,620
219
Sam2 Hiera Small.fb R896
Apache-2.0
基於HieraDet圖像編碼器的SAM2模型,專注於圖像特徵提取任務。
圖像分割 Transformers
S
timm
142
0
Linknet Tu Resnet18
MIT
Linknet是一個基於PyTorch實現的圖像分割模型,適用於語義分割任務。
圖像分割 Safetensors
L
smp-test-models
214
0
Allegro T2V 40x720P
Apache-2.0
Allegro是一款開源的高質量文本到視頻生成模型,能夠生成2至6秒、15 FPS的詳細視頻,支持多種分辨率。
文本生成視頻 英語
A
rhymes-ai
21
2
Allegro T2V 40x360P
Apache-2.0
Allegro是一款開源的文本生成視頻模型,支持生成高質量、多樣化的動態場景視頻。
文本生成視頻 英語
A
rhymes-ai
21
1
Hiera Huge 224 Hf
Hiera是一種高效的分層視覺Transformer模型,在圖像和視頻任務中表現優異且運行速度快
圖像分類 Transformers 英語
H
facebook
41
1
Hiera Large 224 Hf
Hiera是一種層次化視覺Transformer模型,兼具快速、強大且簡潔的特性,在圖像視頻任務中超越現有技術且速度更快。
圖像分類 Transformers 英語
H
facebook
532
1
Hiera Base Plus 224 Hf
Hiera是一種分層式視覺Transformer模型,兼具快速、強大且簡潔的特性,在廣泛圖像視頻任務中超越現有技術水平同時顯著提升運行速度。
圖像分類 Transformers 英語
H
facebook
15
0
Hiera Base 224 Hf
Hiera是一種層次化視覺Transformer模型,具有快速、強大且簡潔的特點,在圖像和視頻任務中表現優異。
圖像分類 Transformers 英語
H
facebook
163
0
Tiny Mistral
Mistral架構的隨機初始化模型,適用於端到端測試。
大型語言模型 Transformers
T
openaccess-ai-collective
23.43k
14
Ruleanalbert
Apache-2.0
RuLeanALBERT 是一個針對俄語預訓練的掩碼語言模型,採用了內存高效的架構。
大型語言模型 Transformers 其他
R
yandex
80
35
Efficientnet 61 Planet Detection
Apache-2.0
EfficientNetV2 是一個高效的卷積神經網絡架構,特別優化了訓練速度和參數效率。61通道版是該架構的一個變體。
圖像分類 Transformers
E
chlab
14
0
Levit 256
Apache-2.0
LeViT-256是基於Transformer架構的高效視覺模型,專為快速推理設計,在ImageNet-1k數據集上預訓練。
圖像分類 Transformers
L
facebook
37
0
Bert Xsmall Dummy
這是一個小型BERT模型的虛擬示例,用於演示和測試目的
大型語言模型
B
julien-c
27.12k
0
Albert Large Arabic
ALBERT大模型的阿拉伯語預訓練版本,基於約44億詞的阿拉伯語語料訓練
大型語言模型 Transformers 阿拉伯語
A
asafaya
45
1
Roberta Base 100M 1
基於1B詞元規模預訓練的RoBERTa基礎模型,驗證困惑度為3.93,適用於英語文本處理任務。
大型語言模型
R
nyu-mll
63
0
Rexnet1 3x
Apache-2.0
ReXNet-1.3x是基於ReXNet架構的圖像分類模型,在ImageNette數據集上進行了預訓練。該模型通過改進殘差塊中的Squeeze-Excitation層來減少通道冗餘。
圖像分類 Transformers
R
frgfm
15
0
Cspdarknet53 Mish
Apache-2.0
基於 ImageNette 數據集預訓練的 CSP-Darknet-53 Mish 架構圖像分類模型
圖像分類 Transformers
C
frgfm
14
0
Rexnet1 5x
Apache-2.0
ReXNet-1.5x 是一個基於 ImageNette 數據集預訓練的輕量級圖像分類模型,採用 ReXNet 架構,通過改進殘差塊中的 Squeeze-Excitation 層來減少通道冗餘。
圖像分類 Transformers
R
frgfm
15
0
Roberta Small Bulgarian
這是一個精簡版的保加利亞語RoBERTa模型,僅包含6個隱藏層,但保持了相近的性能表現。
大型語言模型 其他
R
iarfmoose
21
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase