Acemath RL Nemotron 7B GGUF
其他
AceMath-RL-Nemotron-7B 是一個完全通過強化學習訓練的數學推理模型,基於 Deepseek-R1-Distilled-Qwen-7B 進行訓練,在數學推理任務中表現出色,同時在編碼任務上也有一定的泛化能力。
大型語言模型
Transformers 英語

A
Mungert
633
1
Gemma 3 12B FornaxV.2 QAT CoT Q4 0 GGUF
這是一個實驗性的小型思維模型,旨在8GiB消費級顯卡上運行,具備通用推理能力。通過監督微調(SFT)和高質量推理軌跡訓練,模型能夠將推理能力泛化至多種任務。
大型語言模型
G
ConicCat
98
1
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414是GLM家族中的輕量級成員,擁有90億參數,在數學推理和通用任務上表現出色,為資源受限場景提供了高效的解決方案。
大型語言模型 支持多種語言
G
unsloth
4,291
9
T0 3B
Apache-2.0
T0++是基於T5架構的自然語言處理模型,通過多任務提示訓練實現零樣本任務泛化能力,在多種NLP任務上超越GPT-3且體積更小。
大型語言模型
Transformers 英語

T
bigscience
3,723
100
Llama 3.1 MIG Tulu 3 8B SFT
Apache-2.0
基於自動篩選的5萬條Tulu-3-MIG數據集進行微調的Llama-3.1-8B模型
大型語言模型
Transformers

L
xsample
26
3
Spatialvla 4b 224 Sft Bridge
MIT
該模型是基於SpatialVLA模型在bridge數據集上微調得到的視覺-語言-動作模型,專為Simpler-env基準測試打造。
文本生成圖像
Transformers 英語

S
IPEC-COMMUNITY
1,066
0
Llama 3.1 8b Medusa V1.01
基於Llama 3.1架構的8B參數語言模型,通過mergekit合併多個專業模型而成,在文本生成任務中表現優異。
大型語言模型
Transformers

L
Nexesenex
95
3
Llama3.1 Gutenberg Doppel 70B
基於Hermes-3-Llama-3.1-70B-lorablated模型,在Gutenberg數據集上進行微調的大語言模型
大型語言模型
Transformers

L
nbeerbower
424
6
Lwm
LWM是首個無線通信領域的基礎模型,作為通用特徵提取器開發,能夠從無線信道數據中提取精細表徵。
物理學模型
Transformers

L
wi-lab
137
3
Robustsam Vit Large
MIT
RobustSAM是一種在退化圖像上穩健分割任意對象的模型,基於SAM改進,提升了在低質量圖像上的分割性能。
圖像分割
Transformers 其他

R
jadechoghari
86
4
Llama 3 Gutenberg 8B
其他
基於Llama-3-8b的微調模型,使用Gutenberg DPO數據集進行優化,適用於文本生成任務。
大型語言模型
Transformers

L
nbeerbower
18
9
Percival 01 7b Slerp
Apache-2.0
Percival_01-7b-slerp 是一個在 OPENLLM 排行榜上排名第二的 7B 參數規模的大語言模型,通過 LazyMergekit 工具合併 liminerity/M7-7b 和 Gille/StrangeMerges_32-7B-slerp 兩個模型得到。
大型語言模型
Transformers

P
AurelPx
24
4
Roberta Large Zeroshot V2.0 C
MIT
專為高效零樣本分類設計的RoBERTa-large模型,使用商業友好數據訓練,無需訓練數據即可執行文本分類任務。
文本分類
Transformers 英語

R
MoritzLaurer
53
2
Locutusquexfelladrin TinyMistral248M Instruct
Apache-2.0
這是一個通過合併Locutusque/TinyMistral-248M-Instruct和Felladrin/TinyMistral-248M-SFT-v4並使用mergekit工具創建的模型,融合了兩者的優勢,具有編程能力和推理技巧,同時保持低幻覺和良好的指令遵循能力。
大型語言模型
Transformers 英語

L
Locutusque
97
7
Psyfighter 13B
這是一個基於Llama-2-13B的混合模型,結合了Tiefighter、MedLLaMA和limarp-v2等多個模型的特點,適用於多種文本生成任務。
大型語言模型
Transformers

P
jebcarter
86
12
Wizardlm 13B V1.2
WizardLM-13B V1.2是基於Llama-2 13b訓練的大型語言模型,專注於複雜指令遵循能力。
大型語言模型
Transformers

W
WizardLMTeam
989
226
Hh Rlhf Rm Open Llama 3b
基於LMFlow框架訓練的獎勵模型,針對HH - RLHF數據集(僅有用部分),以open_llama_3b為基礎模型進行訓練,具有良好的泛化能力。
大型語言模型
Transformers

H
weqweasdas
483
18
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98