# 知識蒸餾優化

F Lite 7B
Openrail
由Freepik和Fal聯合開發的70億參數擴散模型,通過知識蒸餾構建,具有快速生成和高效內存使用的特點
圖像生成 英語
F
Freepik
342
22
Xlm Roberta Ua Distilled
MIT
這是一個基於xlm-roberta-base微調的句子轉換器模型,支持英語和烏克蘭語,可用於語義文本相似度、語義搜索等任務。
文本嵌入 支持多種語言
X
panalexeu
121
1
Codev R1 Distill Qwen 7B
基於DeepSeek-R1蒸餾的Verilog RTL代碼生成模型,在Verilog基準測試中表現優異
大型語言模型 Transformers
C
zhuyaoyu
154
2
Ultravox V0 3
MIT
Ultravox 是一個基於 Llama3.1-8B-Instruct 和 Whisper-small 的多模態語音大語言模型,能夠同時處理語音和文本輸入。
音頻生成文本 Transformers 英語
U
FriendliAI
20
1
Ultravox V0 5 Llama 3 3 70b
MIT
Ultravox是基於Llama3.3-70B和Whisper構建的多模態語音大語言模型,支持語音和文本輸入,適用於語音代理、翻譯等場景。
音頻生成文本 Transformers 支持多種語言
U
fixie-ai
3,817
26
Bge M3 Distill 8l
從BAAI/bge-m3蒸餾得到的8層嵌入模型,在保持檢索性能的同時實現2.5倍速度提升
文本嵌入
B
altaidevorg
249
7
Aimv2 Large Patch14 336.apple Pt Dist
AIM-v2是一個高效的圖像編碼器,基於timm庫實現,適用於多種計算機視覺任務。
圖像分類 Transformers
A
timm
14
0
Ultravox V0 4 1 Mistral Nemo
MIT
Ultravox 是一個基於 Mistral-Nemo 和 Whisper 的多模態模型,可同時處理語音和文本輸入,適用於語音代理、語音翻譯等任務。
音頻生成文本 Transformers 支持多種語言
U
fixie-ai
1,285
25
Ultravox V0 4 1 Llama 3 1 70b
MIT
Ultravox 是一個多模態語音大語言模型,基於預訓練的 Llama3.1-70B-Instruct 和 whisper-large-v3-turbo 主幹構建,能夠同時接收語音和文本作為輸入。
文本生成音頻 Transformers 支持多種語言
U
fixie-ai
204
24
Ultravox V0 4 1 Llama 3 1 8b
MIT
Ultravox是基於Llama3.1-8B-Instruct和whisper-large-v3-turbo構建的多模態語音大語言模型,能夠同時處理語音和文本輸入。
音頻生成文本 Transformers 支持多種語言
U
fixie-ai
747
97
Polish Reranker Roberta V2
基於sdadas/polish-roberta-large-v2改進的波蘭語重排序模型,採用RankNet損失函數訓練,支持Flash Attention 2加速
文本嵌入 Transformers 其他
P
sdadas
961
2
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基於Meta-Llama-3.1-8B-Instruct剪枝至1.4B參數規模,並採用LLM-Neo方法(結合LoRA與知識蒸餾)微調的高效語言模型。訓練數據採樣自BAAI/Infinity-Instruct的100萬行數據。
大型語言模型 Transformers
L
yang31210999
39
2
Ultravox V0 4
MIT
Ultravox 是一款基於 Llama3.1-8B-Instruct 和 Whisper-medium 的多模態語音大語言模型,能夠同時處理語音和文本輸入。
音頻生成文本 Transformers 支持多種語言
U
fixie-ai
1,851
48
Distilbert PoliticalBias
MIT
基於DistilBERT的微調模型,用於檢測和降低文本中的政治偏見,採用知識蒸餾和擴散技術實現無偏見文本表徵。
文本分類 Transformers 英語
D
cajcodes
265
2
Multilingual Distilwhisper 28k
MIT
基於whisper-small模型改進的多語言自動語音識別模型,通過CLSR模塊和知識蒸餾提升目標語言性能
語音識別 Transformers 其他
M
naver
47
13
Bangla Sentence Transformer
基於stsb-xlm-r-multilingual微調的孟加拉語句子嵌入模型,支持句子相似度計算和語義搜索
文本嵌入 支持多種語言
B
shihab17
1,257
4
Lamini T5 738M
LaMini-T5-738M是基於t5-large在LaMini-instruction數據集上微調而成的指令微調模型,參數量為738M,屬於LaMini-LM系列模型之一。
大型語言模型 Transformers 英語
L
MBZUAI
2,966
49
Semantic Xlmr Bn
針對孟加拉語優化的多語言句子嵌入模型,可將文本映射到768維向量空間
文本嵌入 Transformers 其他
S
afschowdhury
225
1
Small Stable Diffusion V0
Openrail
一個輕量級的文本到圖像生成模型,體積比原始穩定擴散模型小近一半,同時保持相似的生成質量。
圖像生成 英語
S
OFA-Sys
2,743
92
Dynamic Minilmv2 L6 H384 Squad1.1 Int8 Static
MIT
QuaLA-MiniLM是英特爾開發的微型語言模型,融合知識蒸餾、長度自適應變換器和8位量化技術,在SQuAD1.1數據集上實現最高8.8倍加速且精度損失不足1%。
大型語言模型 Transformers
D
Intel
172
0
Minilmv2 L6 H384 Distilled From BERT Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效推理,適用於多種自然語言處理任務。
大型語言模型 Transformers
M
nreimers
14.21k
1
Distilbert Dot Margin Mse T2 Msmarco
使用知識蒸餾訓練的DistilBERT密集檢索模型,適用於段落重排序和直接檢索任務
文本嵌入 Transformers 英語
D
sebastian-hofstaetter
99
2
Minilmv2 L6 H384 Distilled From RoBERTa Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效性能。
大型語言模型 Transformers
M
nreimers
73
6
Distilbert Dot Tas B B256 Msmarco
基於DistilBert的雙編碼器點積評分架構,通過平衡主題感知採樣在MSMARCO-Passage數據集上訓練,適用於密集檢索和候選集重排序
文本嵌入 Transformers 英語
D
sebastian-hofstaetter
3,188
23
Mminilmv2 L6 H384 Distilled From XLMR Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效性能。
大型語言模型 Transformers
M
nreimers
197
17
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase