Mobilellm 125M
MobileLLM是Meta專為資源受限設備優化的十億參數以下語言模型系列,通過深層窄結構設計顯著提升設備端推理效率。
大型語言模型
Transformers

M
facebook
1,675
111
Mobillama 1B Chat
Apache-2.0
MobiLlama-1B-Chat是基於MobiLlama-1B微調的指令跟隨模型,專為資源受限設備設計,強調高效、低內存佔用和快速響應。
大型語言模型
Transformers 英語

M
MBZUAI
44
25
Blockchainlabs 7B Merged Test2 4 Prune Sft 4bit DPO Orca
這是一個經過剪枝和DPO訓練的7B參數規模的小型LLM,專為設備端用途優化
大型語言模型
Transformers 英語

B
alnrg2arg
18
2
Distil Small.en
MIT
Distil-Whisper是Whisper模型的蒸餾版本,速度快6倍,體積縮小49%,在非分佈評估集上表現接近1% WER。
語音識別
Transformers 英語

D
distil-whisper
33.51k
97
Hubert Base Superb Ks
Apache-2.0
該模型是基於Hubert架構的關鍵詞識別模型,用於將語音片段分類為預定義的關鍵詞集合。
音頻分類
Transformers 英語

H
superb
11.29k
8
Wav2vec2 Large Superb Ks
Apache-2.0
基於Wav2Vec2-Large-LV60預訓練模型,在SUPERB關鍵詞檢測任務上微調的語音分類模型
語音識別
Transformers 英語

W
superb
18
1
Hubert Large Superb Ks
Apache-2.0
基於Hubert-Large架構的關鍵詞檢測模型,在SUPERB基準測試中表現優異
語音識別
Transformers 英語

H
superb
78
0
Wav2vec2 Base Superb Ks
Apache-2.0
基於wav2vec2-base的SUPERB關鍵詞檢測模型,專為16kHz語音設計
語音識別
Transformers 英語

W
superb
5,820
15
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98