Openbuddy OpenBuddy R1 0528 Distill Qwen3 32B Preview0 QAT GGUF
Apache-2.0
這是OpenBuddy-R1-0528-Distill-Qwen3-32B-Preview0-QAT的量化版本,藉助量化技術可以在不同硬件條件下更高效地運行模型。
大型語言模型 支持多種語言
O
bartowski
720
1
Voice Based Stress Recognition
MIT
輕量級語音壓力識別模型,通過知識蒸餾技術訓練,適用於邊緣設備即時壓力檢測
音頻分類
PyTorch 英語
V
forwarder1121
1,458
1
Openr1 Distill 7B
Apache-2.0
OpenR1-Distill-7B是基於Qwen2.5-Math-7B在Mixture-of-Thoughts數據集上後訓練的版本,旨在教會語言模型進行逐步推理。
大型語言模型
Transformers 英語

O
open-r1
134
6
Unime LLaVA 1.6 7B
MIT
UniME是一個基於多模態大模型的通用嵌入學習模型,採用336×336圖像分辨率訓練,在MMEB排行榜上位列第一。
圖像生成文本
Transformers 英語

U
DeepGlint-AI
188
3
Unime Phi3.5 V 4.2B
MIT
UniME 是一個基於多模態大模型的通用嵌入學習模型,專注於打破模態壁壘,實現跨模態檢索和嵌入學習。
多模態對齊
Transformers 英語

U
DeepGlint-AI
54
4
Ultralong Thinking
通過SLERP方法合併的8B參數語言模型,結合了DeepSeek-R1和Nemotron-8B模型的優勢
大型語言模型
Transformers

U
mergekit-community
69
2
Splade Disco Human Mistral
基於SPLADE++改進的對話式搜索模型,通過多教師蒸餾策略優化多輪對話查詢語義理解
文本嵌入 英語
S
slupart
27
3
Splade Disco Human
基於SPLADE++模型適配的對話式搜索版本,通過QReCC數據集微調查詢編碼器,優化多輪對話式搜索性能。
文本嵌入 英語
S
slupart
22
2
Minimaid L2
Apache-2.0
MiniMaid-L2是基於MiniMaid-L1進一步優化的角色扮演專用模型,通過知識蒸餾和更大規模數據集訓練,在3B規模模型中表現優異。
大型語言模型
Transformers 英語

M
N-Bot-Int
63
2
Distill Any Depth Large Hf
MIT
Distill-Any-Depth是一種新的SOTA單目深度估計模型,採用知識蒸餾算法訓練而成。
3D視覺
Transformers

D
xingyang1
2,322
2
Distill Any Depth Small Hf
MIT
Distill-Any-Depth是一種基於知識蒸餾算法訓練的SOTA單目深度估計模型,能夠高效準確地進行深度估計。
3D視覺
Transformers

D
xingyang1
1,214
3
ARWKV R1 1B5
Apache-2.0
ARWKV-R1-1B5 是基於RNN的70億參數模型的早期預覽版,通過從DeepSeek-R1-Distill-Qwen-1.5B進行三階段知識蒸餾訓練而成,上下文長度為2k。
大型語言模型
Transformers 支持多種語言

A
RWKV-Red-Team
164
4
Deepseer R1 Vision Distill Qwen 1.5B Google Vit Base Patch16 224
Apache-2.0
DeepSeer是基於DeepSeek-R1模型開發的視覺語言模型,支持思維鏈推理能力,通過對話模板訓練視覺模型。
圖像生成文本
Transformers

D
mehmetkeremturkcan
25
2
Qwen2.5 14B DeepSeek R1 1M Uncensored
這是一個基於Qwen2.5-14B-DeepSeek-R1-1M模型,通過TIES方法融合DeepSeek-R1-Distill-Qwen-14B-abliterated-v2的14B參數規模的大語言模型
大型語言模型
Transformers

Q
FiditeNemini
154
6
Deepseek R1 Distill Qwen 32B Japanese
MIT
由CyberAgent發佈的日語大語言模型,基於Qwen-32B蒸餾優化
大型語言模型 日語
D
cyberagent
1,190
250
Gguf Jina Reranker V1 Tiny En
Apache-2.0
專為極速重排序設計的模型,基於JinaBERT架構,支持長文本序列處理(最高8,192令牌)。
文本嵌入 英語
G
Felladrin
3,831
1
Deepseek R1 BF16
MIT
DeepSeek-R1是基於Llama架構的8B參數模型,由DeepSeek團隊開發,專注於高效推理和微調。
大型語言模型
Transformers 英語

D
unsloth
944
22
Llama DNA 1.0 8B Instruct
基於Llama架構的最先進雙語語言模型,特別優化了韓語理解和生成能力,同時保持強大的英語能力。
大型語言模型
Transformers 支持多種語言

L
dnotitia
661
58
Koala Lightning 700m
KOALA-Lightning-700M是基於SDXL-Lightning通過知識蒸餾訓練的高效文本生成圖像模型,在保持生成質量的同時顯著提升推理速度
圖像生成
K
etri-vilab
170
6
Koala Lightning 1b
KOALA-Lightning-1B是基於SDXL-Lightning的知識蒸餾模型,通過壓縮U-Net結構實現高效文本生成圖像,參數規模1.16B
文本生成圖像
K
etri-vilab
390
7
Protgpt2 Distilled Tiny
Apache-2.0
ProtGPT2的蒸餾版本,通過知識蒸餾方法壓縮為更高效的小型模型,保持性能的同時提升推理速度
蛋白質模型
Transformers

P
littleworth
157
4
Splade PP En V2
Apache-2.0
針對工業場景優化的SPLADE++模型實現,平衡檢索質量與效率,支持文檔擴展和稀疏表示學習
文本嵌入
Transformers 英語

S
prithivida
181
13
Phi 2 Sft Ultrachat Full
MIT
基於microsoft/phi-2在ultrachat_200k數據集上微調的大語言模型,適用於對話生成任務。
大型語言模型
Transformers 其他

P
lole25
68
2
Distil Medium.en
MIT
Distil-Whisper是Whisper模型的蒸餾版本,速度比原版快6倍,體積縮小49%,在英語語音識別任務上保持接近原版的性能。
語音識別 英語
D
distil-whisper
186.85k
120
Distil Large V2
MIT
Distil-Whisper是Whisper模型的蒸餾版本,速度提升6倍,體積縮小49%,在非分佈評估集上的表現僅相差1% WER。
語音識別 英語
D
distil-whisper
42.65k
508
Mmlw Retrieval Roberta Large
Apache-2.0
MMLW(我必須得到更好的消息)是波蘭語的神經文本編碼器,針對信息檢索任務進行了優化。
文本嵌入
Transformers 其他

M
sdadas
237.90k
12
Mmlw Retrieval Roberta Base
Apache-2.0
MMLW(我必須得到更好的消息)是波蘭語的神經文本編碼器,針對信息檢索任務進行了優化,能夠將查詢和段落轉換為768維向量。
文本嵌入
Transformers 其他

M
sdadas
408
1
Bk Sdm Small
Openrail
BK-SDM是通過架構壓縮的穩定擴散模型,用於高效通用文生圖合成,通過移除U-Net中的殘差和注意力塊實現輕量化。
圖像生成
B
nota-ai
745
31
LEALLA Large
Apache-2.0
LEALLA 是一組輕量級、語言無關的句子嵌入模型集合,支持 109 種語言,是從 LaBSE 蒸餾而來。適用於多語言句子嵌入及雙語文本檢索。
文本嵌入 支持多種語言
L
setu4993
37
8
LEALLA Small
Apache-2.0
LEALLA-small 是一個輕量級、語言無關的句子嵌入模型,支持109種語言,適用於多語言句子嵌入和雙語文本檢索任務。
文本嵌入 支持多種語言
L
setu4993
41
14
Distil Ita Legal Bert
基於知識蒸餾技術構建的輕量級意大利法律領域BERT模型,僅含4層Transformer結構
文本嵌入
Transformers

D
dlicari
353
0
Rbt4 H312
Apache-2.0
MiniRBT是基於知識蒸餾技術開發的中文小型預訓練模型,採用全詞掩碼技術優化訓練效率。
大型語言模型
Transformers 中文

R
hfl
34
5
Minirbt H256
Apache-2.0
MiniRBT是一個基於知識蒸餾技術的中文小型預訓練模型,結合了全詞掩碼技術,適用於多種中文自然語言處理任務。
大型語言模型
Transformers 中文

M
hfl
225
7
Minirbt H288
Apache-2.0
MiniRBT是基於知識蒸餾技術開發的中文小型預訓練模型,採用全詞掩碼技術優化訓練效率。
大型語言模型
Transformers 中文

M
hfl
405
8
Clip Vit Large Patch14 Ko
MIT
基於知識蒸餾訓練的韓語CLIP模型,支持韓語和英語的多模態理解
文本生成圖像
Transformers 韓語

C
Bingsu
4,537
15
Re2g Qry Encoder Fever
Apache-2.0
Re2G是一個結合神經初始檢索和重排序的生成模型,用於知識密集型任務。該問題編碼器是Re2G系統的組成部分,用於將問題編碼為向量以進行檢索。
文本嵌入
Transformers

R
ibm-research
17
0
Re2g Qry Encoder Nq
Apache-2.0
Re2G是一個結合神經檢索、重排序和生成的端到端系統,用於知識密集型任務。該模型是其NQ(Natural Questions)問題編碼器組件。
問答系統
Transformers

R
ibm-research
14
0
Efficient Splade V Large Query
高效SPLADE模型用於段落檢索,採用雙模型架構分別處理查詢和文檔推理,在MS MARCO數據集上表現優異。
文本嵌入
Transformers 英語

E
naver
540
4
Kominilm
KoMiniLM是一個輕量級韓語語言模型,旨在解決大型語言模型在實際應用中的延遲和容量限制問題。
大型語言模型
Transformers

K
BM-K
244
2
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基於蒸餾BERT基礎版在問答數據集上微調的模型,適用於問答任務
問答系統
Transformers

D
jhoonk
15
0
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98