Fairyr1 32B
Apache-2.0
FairyR1-32B是一款高效的大型語言模型,基於DeepSeek-R1-Distill-Qwen-32B,通過優化的蒸餾與合併流程,在數學和編程任務上表現優異。
大型語言模型
Transformers 英語

F
PKU-DS-LAB
372
85
Deepseek R1 Chinese Law
Apache-2.0
基於Unsloth和Huggingface TRL庫訓練的Llama模型,推理速度提升2倍
大型語言模型
Transformers 英語

D
corn6
74
2
Travelbot
Apache-2.0
基於Unsloth和Huggingface TRL庫訓練的Llama模型,推理速度提升2倍
大型語言模型
Transformers 英語

T
kitty528
9,146
2
Akshara 8B Llama Multilingual V0.1
Apache-2.0
Akshara-8B是專為印度多元語言生態打造的尖端AI模型,支持多種印度語言文本的理解與生成。
大型語言模型
Transformers 支持多種語言

A
SVECTOR-CORPORATION
91
3
Arcee Blitz
Apache-2.0
基於Mistral架構的24B參數模型,通過從DeepSeek模型蒸餾而來,旨在實現快速高效。
大型語言模型
Transformers

A
arcee-ai
4,923
74
Kotoba Whisper V2.0
Apache-2.0
Kotoba-Whisper是由Asahi Ushio與Kotoba Technologies合作開發的日語自動語音識別蒸餾模型,基於Whisper large-v3蒸餾而來,推理速度提升6.3倍。
語音識別
Transformers 日語

K
kotoba-tech
8,108
60
Sts Distilcamembert Base
MIT
這是一個基於DistilCamemBERT的法語句子嵌入模型,能夠將句子或段落編碼為768維向量,用於句子相似度計算等任務。
文本嵌入
Transformers 法語

S
h4c5
48
1
Distil Small.en
MIT
Distil-Whisper是Whisper模型的蒸餾版本,速度快6倍,體積縮小49%,在非分佈評估集上表現接近1% WER。
語音識別
Transformers 英語

D
distil-whisper
33.51k
97
SSD 1B Anime
基於SSD-1B與NekorayXL、SDXL-1.0合併優化的動漫風格文生圖模型
圖像生成
S
furusu
1,958
55
Distilprotbert
MIT
ProtBert-UniRef100模型的蒸餾版本,用於蛋白質特徵提取和下游任務微調
蛋白質模型
Transformers

D
yarongef
1,965
9
Minilm L12 H384 Uncased
MIT
MiniLM是一種小型高效的預訓練語言模型,通過深度自注意力蒸餾技術壓縮而成,適用於語言理解與生成任務。
大型語言模型
M
microsoft
10.19k
89
Distilroberta Base
Apache-2.0
DistilRoBERTa是RoBERTa-base模型的蒸餾版本,參數更少但速度更快,適用於英語文本處理任務。
大型語言模型 英語
D
distilbert
1.2M
153
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98