Apriel Nemotron 15b Thinker GGUF
MIT
Apriel-Nemotron-15b-Thinker是一款強大的推理模型,在同規模模型中表現出色,具有高效的內存使用和優秀的推理能力,適用於多種企業和學術場景。
大型語言模型
Transformers

A
Mungert
1,097
1
FLUX.1 Dev ControlNet Union Pro 2.0 Fp8
其他
這是Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro-2.0模型的FP8量化版本,通過PyTorch原生FP8支持從原始BFloat16格式量化而來,優化了推理性能。
圖像生成 英語
F
ABDALLALSWAITI
2,023
15
Sonics Spectttra Alpha 120s
MIT
用於端到端合成歌曲檢測的先進模型,能夠識別AI生成的完整歌曲(包括人聲、音樂、歌詞和風格)
音頻分類
PyTorch 英語
S
awsaf49
1,986
0
Deepseek R1 Distill Qwen 1.5B
MIT
基於DeepSeek-R1-Distill-Qwen-1.5B的多個變體,適配LiteRT框架和MediaPipe LLM推理API,可部署於Android平臺。
大型語言模型
D
litert-community
138
4
Llama 3.2 3B Instruct Unsloth Bnb 4bit
基於Meta Llama 3.2-3B-Instruct模型,採用Unsloth動態4位量化技術優化的高效大語言模型
大型語言模型
Transformers 英語

L
unsloth
240.35k
9
Modernbert Large Zeroshot V2.0
Apache-2.0
基於ModernBERT-large微調的零樣本分類器,高效快速且內存佔用低,適用於多種文本分類任務。
大型語言模型
Transformers

M
MoritzLaurer
25.66k
47
Mms 300m 1130 Forced Aligner
基於Hugging Face預訓練模型的文本與音頻強制對齊工具,支持多種語言,內存效率高
語音識別
Transformers 支持多種語言

M
MahmoudAshraf
2.5M
50
Google Gemma 2b AWQ 4bit Smashed
基於google/gemma-2b模型通過AWQ技術壓縮的4位量化版本,旨在提升推理效率並降低資源消耗。
大型語言模型
Transformers

G
PrunaAI
33
1
Universal NER UniNER 7B All Bnb 4bit Smashed
PrunaAI提供的壓縮版UniNER-7B-all模型,通過量化技術顯著減少內存佔用和能耗,同時保持較好的命名實體識別能力。
大型語言模型
Transformers

U
PrunaAI
22
1
Writer Palmyra Small Bnb 8bit Smashed
PrunaAI優化的8位量化版Palmyra小型語言模型,顯著降低內存佔用和能耗
大型語言模型
Transformers

W
PrunaAI
31
1
Mosaicml Mpt 7b Storywriter Bnb 4bit Smashed
PrunaAI壓縮的MPT-7B故事寫作模型,通過llm-int8技術實現高效推理
大型語言模型
Transformers 其他

M
PrunaAI
27
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98