Qwen3 8B GPTQ Int4
Apache-2.0
Qwen3-4B是Qwen系列的最新大語言模型,具備思維模式切換能力、強大的推理能力、出色的人類偏好對齊、卓越的智能體能力以及多語言支持。
大型語言模型
Transformers

Q
JunHowie
2,365
2
Qwen3 32B GPTQ Int4
Apache-2.0
Qwen3是通義千問系列大語言模型的最新8B參數版本,支持思維模式切換、多語言處理和工具調用,具備強大的推理和對話能力。
大型語言模型
Transformers

Q
JunHowie
1,079
3
Qwen3 14B
Apache-2.0
Qwen3-14B是通義千問系列的最新大語言模型,具有148億參數,支持思維與非思維模式切換,在推理、指令遵循和智能體能力方面表現優異。
大型語言模型
Transformers

Q
Qwen
297.02k
152
Qwen3 8B
Apache-2.0
Qwen3是通義千問系列大語言模型的最新8B參數版本,支持思維模式與非思維模式無縫切換,具備強大的推理、指令遵循和智能體能力。
大型語言模型
Transformers

Q
Qwen
550.09k
294
Summllama3.2 3B
基於Llama3.2-3B-Instruct初始化的文本摘要模型,通過大規模摘要反饋的DPO訓練優化
大型語言模型
Transformers

S
DISLab
441
36
Summllama3.1 8B
SummLlama3.1-8B是基於Llama3.1-8B-Instruct初始化的文本摘要模型,通過大規模摘要反饋的直接偏好優化(DPO)訓練,在忠實性、完整性和簡潔性方面表現優異。
文本生成
Transformers

S
DISLab
116
10
Llama 3.1 Nemotron 70B Instruct HF
英偉達定製的大型語言模型,旨在提升大語言模型生成回覆對用戶查詢的有用性。
大型語言模型
Transformers 英語

L
nvidia
29.98k
2,033
Summllama3 8B
SummLlama3-8B是基於Llama3-8B-Instruct初始化的文本摘要模型,通過大規模摘要反饋的DPO訓練優化,在忠實性、完整性和簡潔性上表現優異。
文本生成
S
DISLab
15
14
Llama VARCO 8B Instruct
Llama-VARCO-8B-Instruct是一個基於Llama構建的生成式模型,通過額外的訓練,在韓語處理方面表現出色,同時保持英語能力。
大型語言模型
Transformers 支持多種語言

L
NCSOFT
2,981
74
Causallm 14B DPO Alpha GGUF
基於14B參數的因果語言模型,經過DPO優化訓練,支持中英文文本生成任務
大型語言模型 支持多種語言
C
tastypear
2,238
85
Causallm 7B DPO Alpha GGUF
基於Llama 2架構的7B參數大語言模型,經過DPO訓練優化,支持中英文文本生成
大型語言模型 支持多種語言
C
tastypear
367
36
DISC MedLLM
Apache-2.0
DISC-MedLLM是復旦大學DISC實驗室開發的面向醫療對話場景的領域大語言模型,基於Baichuan-13b-base構建,提供高質量的健康支持服務。
大型語言模型
Transformers 中文

D
Flmc
128
51
Eleuther Pythia2.8b Hh Sft
Apache-2.0
基於Pythia-2.8b的因果語言模型,使用Anthropic人類偏好數據集進行監督式微調
大型語言模型
Transformers 英語

E
lomahony
205
1
Eleuther Pythia6.9b Hh Sft
Apache-2.0
基於Pythia-6.9b基礎模型,使用Anthropic的hh-rlhf數據集進行監督式微調訓練的因果語言模型
大型語言模型
Transformers 英語

E
lomahony
58
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98