# 輕量級

Tiny Random Llama 4 8E
這是一個用於調試的微型模型,採用隨機初始化,配置基於meta-llama的Llama-4-Maverick-17B-128E-Instruct模型。
大型語言模型 Transformers
T
katuni4ka
140
1
Kanana Nano 2.1b Instruct
Kanana是由Kakao開發的雙語(韓語/英語)語言模型系列,該2.1B參數版本在韓語表現上超越同類模型,同時保持高效計算成本。
大型語言模型 Transformers 支持多種語言
K
kakaocorp
5,994
59
Ltgbert 100m 2024
MIT
該項目是一個遵循MIT許可的開源項目,具有一定的開源價值。
大型語言模型 Transformers
L
babylm
7,150
1
Openchat 3.5 GPTQ
Apache-2.0
OpenChat 3.5 7B是基於Mistral架構的7B參數大語言模型,由OpenChat團隊開發,採用Apache 2.0許可證發佈。
大型語言模型 Transformers
O
TheBloke
107
17
Dfm Sentence Encoder Small V1
這是一個基於sentence-transformers的句子編碼器模型,能夠將句子和段落映射到256維的密集向量空間,適用於句子相似度計算、聚類和語義搜索等任務。
文本嵌入 Transformers
D
kardosdrur
16
0
Vit Base Letter
Apache-2.0
基於Google的ViT基礎模型在字母識別數據集上微調的圖像分類模型,準確率達98.81%
圖像分類 Transformers 英語
V
pittawat
93
2
Totally Harmless Model
這是一個普通的舊模型,具體功能和用途未明確說明。
大型語言模型 Transformers 英語
T
ykilcher
110
15
Vn Menu Donut
MIT
該模型基於 MIT 許可證發佈,具體信息未提供。
大型語言模型 Transformers
V
binhnase04854
65
0
Medical Report Chinese CPT
MIT
大型語言模型 Transformers
M
WENGSYX
26
0
Wav2vec2 Base Dataset Asr Demo Colab
Apache-2.0
這是一個基於distilhubert在superb數據集上微調的語音識別模型,主要用於自動語音識別(ASR)任務。
語音識別 Transformers
W
aminnaghavi
34
0
Yolos Small
Apache-2.0
基於視覺Transformer(ViT)的目標檢測模型,使用DETR損失函數訓練,在COCO數據集上表現優異。
目標檢測 Transformers
Y
hustvl
154.46k
63
Trajectory Transformer Halfcheetah Medium V2
MIT
大型語言模型 Transformers
T
CarlCochet
90
0
Convnext Tiny 224
Apache-2.0
ConvNeXT是一個純卷積模型,受視覺Transformer設計啟發,在ImageNet-1k數據集上訓練,性能超越Transformer。
圖像分類 Transformers
C
facebook
18.67k
16
Distil Wav2vec2 Adult Child Cls 37m
Apache-2.0
基於wav2vec 2.0架構的音頻分類模型,用於區分成人和兒童語音
音頻分類 Transformers 英語
D
bookbot
15
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase