# 低參數量

Lite Whisper Large V3 Turbo Fast
Apache-2.0
Lite-Whisper 是 OpenAI Whisper 的壓縮版本,採用 LiteASR 技術,在保持較高準確率的同時顯著減小模型體積。
語音識別 Transformers
L
efficient-speech
99
2
Lite Whisper Large V3
Apache-2.0
Lite-Whisper是基於OpenAI Whisper的壓縮版本,採用LiteASR技術,在保持較高準確率的同時減小了模型大小。
語音識別 Transformers
L
efficient-speech
70
2
Meno Tiny 0.1
Apache-2.0
基於Qwen2.5-1.5B-Instruct微調的俄語指令優化模型,15億參數,支持俄英雙語,擅長RAG流程中的文本問答
大型語言模型 Transformers 支持多種語言
M
bond005
764
10
Ruri Reranker Stage1 Small
Apache-2.0
琉璃重排序器是一個日語通用重排序模型,專門用於提升日語文本檢索結果的相關性排序。小型版本在保持高性能的同時具有更小的參數量。
文本嵌入 日語
R
cl-nagoya
25
0
Lamini Prompt Enchance
該模型是基於MBZUAI/LaMini-Flan-T5-248M微調的提示增強模型,主要用於文本描述增強任務。
文本生成 Transformers
L
gokaygokay
930
4
Tinystories 656K
Apache-2.0
TinyStories-656K 是一個輕量級的Transformer語言模型,專注於故事生成,僅使用約600k參數。
文本生成 Transformers 英語
T
raincandy-u
119
29
Drug Ollama V3 2
該模型是基於open_llama_3b使用H2O LLM Studio訓練的大語言模型,專注於藥物相關領域的文本生成任務。
大型語言模型 Transformers 英語
D
Ketak-ZoomRx
99
3
Bk Sdm Small
Openrail
BK-SDM是通過架構壓縮的穩定擴散模型,用於高效通用文生圖合成,通過移除U-Net中的殘差和注意力塊實現輕量化。
圖像生成
B
nota-ai
745
31
Deeplabv3 Mobilevit Xx Small
其他
基於PASCAL VOC數據集預訓練的輕量級語義分割模型,結合MobileViT和DeepLabV3架構
圖像分割 Transformers
D
apple
1,571
10
Deeplabv3 Mobilevit X Small
其他
輕量級視覺Transformer模型,結合MobileNetV2與Transformer模塊,適用於移動端語義分割任務。
圖像分割 Transformers
D
apple
268
3
Mobilevit Xx Small
其他
MobileViT是一種輕量級、低延遲的視覺Transformer模型,結合了CNN和Transformer的優勢,適合移動設備使用。
圖像分類 Transformers
M
apple
6,077
16
Mobilevit X Small
其他
MobileViT是一種輕量級、低延遲的視覺Transformer模型,結合了CNN和Transformer的優勢,適用於移動端設備。
圖像分類 Transformers
M
apple
1,062
6
Bert Base Uncased Squadv1 X1.96 F88.3 D27 Hybrid Filled Opt V1
MIT
基於BERT-base uncased模型在SQuAD v1上微調並優化的問答模型,通過剪枝技術保留43%原始權重,推理速度提升1.96倍
問答系統 Transformers 英語
B
madlag
20
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase