# 設備端優化

Mobilellm 125M
MobileLLM是Meta專為資源受限設備優化的十億參數以下語言模型系列,通過深層窄結構設計顯著提升設備端推理效率。
大型語言模型 Transformers
M
facebook
1,675
111
Mobillama 1B Chat
Apache-2.0
MobiLlama-1B-Chat是基於MobiLlama-1B微調的指令跟隨模型,專為資源受限設備設計,強調高效、低內存佔用和快速響應。
大型語言模型 Transformers 英語
M
MBZUAI
44
25
Blockchainlabs 7B Merged Test2 4 Prune Sft 4bit DPO Orca
這是一個經過剪枝和DPO訓練的7B參數規模的小型LLM,專為設備端用途優化
大型語言模型 Transformers 英語
B
alnrg2arg
18
2
Distil Small.en
MIT
Distil-Whisper是Whisper模型的蒸餾版本,速度快6倍,體積縮小49%,在非分佈評估集上表現接近1% WER。
語音識別 Transformers 英語
D
distil-whisper
33.51k
97
Hubert Base Superb Ks
Apache-2.0
該模型是基於Hubert架構的關鍵詞識別模型,用於將語音片段分類為預定義的關鍵詞集合。
音頻分類 Transformers 英語
H
superb
11.29k
8
Wav2vec2 Large Superb Ks
Apache-2.0
基於Wav2Vec2-Large-LV60預訓練模型,在SUPERB關鍵詞檢測任務上微調的語音分類模型
語音識別 Transformers 英語
W
superb
18
1
Hubert Large Superb Ks
Apache-2.0
基於Hubert-Large架構的關鍵詞檢測模型,在SUPERB基準測試中表現優異
語音識別 Transformers 英語
H
superb
78
0
Wav2vec2 Base Superb Ks
Apache-2.0
基於wav2vec2-base的SUPERB關鍵詞檢測模型,專為16kHz語音設計
語音識別 Transformers 英語
W
superb
5,820
15
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase