Deepseek R1 Distill Qwen 7B
DeepSeek-R1-Distill-Qwen-7B 是由 deepseek-ai 發佈的蒸餾版大語言模型,基於 Qwen-7B 架構,適用於文本生成任務。
大型語言模型
Transformers

D
mlx-community
1,045
4
OPENCLIP SigLIP Tiny 14 Distill SigLIP 400m Cc9m
MIT
一個基於SigLIP架構的輕量級視覺語言模型,通過蒸餾技術從更大的SigLIP-400m模型中提取知識,適用於零樣本圖像分類任務。
圖像分類
O
PumeTu
30
0
Quasar 3.0 Instract V2
Quasar-3.0-7B是即將發佈的400B Quasar 3.0模型的蒸餾版本,展示了Quasar架構的早期實力和潛力。
大型語言模型
Transformers

Q
silx-ai
314
8
Monoelectra Base
Apache-2.0
基於 ELECTRA 架構的文本排序交叉編碼器,用於檢索結果的重排序任務
文本嵌入
Transformers 英語

M
cross-encoder
151
6
BERTA
MIT
BERTA是通過蒸餾FRIDA模型的嵌入向量到LaBSE-ru-turbo獲得的,用於計算俄語和英語句子的嵌入向量,支持多種前綴任務。
文本嵌入
Transformers 支持多種語言

B
sergeyzh
7,089
12
Distill Any Depth Small Hf
Apache-2.0
Distill-Any-Depth 是一個用於深度估計的模型,基於 transformers 架構,適用於從圖像中估計深度信息。
3D視覺
Transformers

D
keetrap
99
1
FLUX.1 Lite GGUF
其他
Flux.1 Lite是從FLUX.1-dev模型蒸餾出的80億參數Transformer模型,專為文本生成圖像任務優化,在保持精度的同時減少內存佔用並提升速度。
文本生成圖像
F
gpustack
5,452
3
Faster Whisper Large V3 French Distil Dec16
MIT
Whisper-Large-V3的法語蒸餾版本,通過減少解碼器層數優化推理效率,同時保持良好性能
語音識別
Transformers 法語

F
brandenkmurray
25
3
Test Push
Apache-2.0
distilvit是一個基於VIT圖像編碼器和蒸餾版GPT-2文本解碼器的圖像轉文本模型,能夠生成圖像的文本描述。
圖像生成文本
Transformers

T
tarekziade
17
0
Vit Base Patch16 224 Distilgpt2
Apache-2.0
DistilViT 是一個基於視覺Transformer(ViT)和蒸餾版GPT-2的圖像描述生成模型,能夠將圖像轉換為文本描述。
圖像生成文本
Transformers

V
tarekziade
17
0
Distil Whisper Large V3 German
Apache-2.0
基於distil-whisper技術的德語語音識別模型,參數量7.56億,在保持高質量的同時實現更快的推理速度。
語音識別
Transformers 德語

D
primeline
207
15
Kotoba Whisper V1.0
Apache-2.0
Kotoba-Whisper 是由 Asahi Ushio 和 Kotoba Technologies 合作開發的日語自動語音識別蒸餾版 Whisper 模型集合,比原版 large-v3 快 6.3 倍,同時保持相近的低錯誤率。
語音識別
Transformers 日語

K
kotoba-tech
2,397
53
Distil Large V3
MIT
Distil-Whisper是Whisper large-v3的知識蒸餾版本,專注於英語自動語音識別,提供更快的推理速度同時保持接近原始模型的準確性。
語音識別 英語
D
distil-whisper
417.11k
311
Distill Whisper Th Medium
MIT
基於Whisper架構的蒸餾版自動語音識別模型,專為泰語優化,性能與效率兼備
語音識別
Transformers

D
biodatlab
303
2
Dist Mpnet Paracrawl Cs En
基於BERT-small架構的蒸餾模型,專為捷克語-英語語義嵌入設計
文本嵌入
Transformers 支持多種語言

D
Seznam
393
4
LCM Dreamshaper V7
MIT
從Stable-Diffusion v1-5的Dreamshaper v7微調版本蒸餾而來,可在極短推理時間內生成高質量圖像
圖像生成 英語
L
ckpt
190
3
Indictrans2 Indic En Dist 200M
MIT
這是一個支持22種印度語言與英語互譯的機器翻譯模型,採用蒸餾技術優化,參數規模200M。
機器翻譯
Transformers 支持多種語言

I
ai4bharat
3,123
5
Indictrans2 En Indic Dist 200M
MIT
IndicTrans2是一個支持22種印度語言與英語互譯的高質量機器翻譯模型,本版本為200M參數的蒸餾版
機器翻譯
Transformers 支持多種語言

I
ai4bharat
4,461
12
Nllb 200 Distilled 600M Dz To En
該模型是基於NLLB-200蒸餾版微調的阿拉伯語(Dz)到英語的翻譯模型
機器翻譯
Transformers

N
KarmaCST
17
0
MLQ Distilbart Bbc
Apache-2.0
該模型是基於sshleifer/distilbart-cnn-12-6在BBC新聞摘要數據集上微調的文本摘要模型,由都靈理工大學深度自然語言處理課程實驗室實踐開發。
文本生成
Transformers

M
DeepNLP-22-23
20
0
Tinysapbert From TinyPubMedBERT V1.0
TinySapBERT是一個基於SapBERT框架訓練的微型生物醫學實體表示模型,專為生物醫學命名實體識別任務設計。
大型語言模型
Transformers

T
dmis-lab
16.93k
0
Small100
MIT
SMaLL-100是一個緊湊且快速的大規模多語言機器翻譯模型,覆蓋超過10,000種語言對,性能與M2M-100相當但體積更小速度更快。
機器翻譯
Transformers 支持多種語言

S
alirezamsh
5,374
81
Moco Sentencedistilbertv2.0
這是一個基於sentence-transformers的韓英雙語句子嵌入模型,可將句子映射到768維向量空間,適用於語義搜索和聚類任務。
文本嵌入
Transformers 支持多種語言

M
bongsoo
39
1
Distilbart Cnn 12 6 Ftn Multi News
Apache-2.0
該模型是基於distilbart-cnn-12-6在multi_news數據集上微調的文本摘要模型,專門用於多文檔摘要任務。
文本生成
Transformers

D
datien228
22
3
Sbert Chinese Qmc Finance V1 Distill
專為金融領域問題匹配優化的輕量化句子相似度模型,通過蒸餾技術將12層BERT壓縮至4層,顯著提升推理效率
文本嵌入
Transformers

S
DMetaSoul
20
3
Distilcamembert Base
MIT
DistilCamemBERT是法語CamemBERT模型的蒸餾版本,通過知識蒸餾技術顯著降低模型複雜度,同時保持性能。
大型語言模型
Transformers 法語

D
cmarkea
15.79k
31
Distil Wav2vec2 Adult Child Cls 37m
Apache-2.0
基於wav2vec 2.0架構的音頻分類模型,用於區分成人和兒童語音
音頻分類
Transformers 英語

D
bookbot
15
2
Distilbert Base En Fr Es Pt It Cased
Apache-2.0
這是distilbert-base-multilingual-cased的輕量版本,支持英語、法語、西班牙語、葡萄牙語和意大利語處理。
大型語言模型
Transformers 支持多種語言

D
Geotrend
24
0
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Distilbert Base Pl Cased
Apache-2.0
這是distilbert-base-multilingual-cased的定製化精簡版本,專門針對波蘭語優化,保留了原始模型的準確率。
大型語言模型
Transformers 其他

D
Geotrend
92
1
Distilbert Base En It Cased
Apache-2.0
這是distilbert-base-multilingual-cased的輕量版本,專門針對英語和意大利語優化,保留了原始模型的準確率。
大型語言模型
Transformers 其他

D
Geotrend
20
0
Distilbert Base En De Cased
Apache-2.0
這是distilbert-base-multilingual-cased的輕量版本,專注於英語和德語的雙語處理,保持了原始模型的表徵能力和準確率。
大型語言模型
Transformers 其他

D
Geotrend
23
0
Distilbert Base En Ar Cased
Apache-2.0
這是distilbert-base-multilingual-cased的精簡版本,專門支持英語和阿拉伯語處理,保持原始模型的準確率。
大型語言模型
Transformers 其他

D
Geotrend
31
0
Distilbert Base Es Multilingual Cased
Apache-2.0
這是從distilbert-base-multilingual-cased中提取的西班牙語子集模型,是BERT基礎多語言模型的蒸餾版本,參數規模更小但保留了主要功能。
大型語言模型
Transformers 西班牙語

D
Recognai
76
3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98