Deepseek R1 0528 Bf16
MIT
DeepSeek-R1-0528是DeepSeek R1模型的小版本升級,通過增加計算資源和算法優化顯著提升了推理能力,在數學、編程和通用邏輯等多個基準評估中表現出色。
大型語言模型
Transformers

D
cognitivecomputations
129
1
Deepseek R1 0528 Qwen3 8B GPTQ Int4 Int8Mix
MIT
基於DeepSeek-R1-0528-Qwen3-8B開發的量化版本模型,在推理能力、減少幻覺率等方面有顯著提升,適用於多種自然語言處理任務。
大型語言模型
Transformers

D
QuantTrio
154
1
Yixin Distill Qwen 72B 4.5bpw H6 Exl2
Apache-2.0
基於Qwen2.5-72B通過強化學習蒸餾的高性能數學推理與通用知識處理模型,在數學推理和通用知識任務中表現優異。
大型語言模型 支持多種語言
Y
LoneStriker
37
3
Hunyuan 7B Pretrain
其他
混元7B是騰訊開源的中英文雙語大語言模型,採用更優的數據配比和訓練方式,性能強勁,是目前最強的中文7B Dense模型之一。
大型語言模型
Transformers 英語

H
tencent
56
8
Kunoichi DPO V2 7B GGUF Imatrix
基於Mistral架構的7B參數大語言模型,採用DPO(直接偏好優化)訓練,在多項基準測試中表現優異
大型語言模型
K
Lewdiculous
3,705
39
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98