Gemma 3n E4B It Litert Preview GGUF
Gemma-3n-E4B-it-litert-preview是基於Google的Gemma 3n模型微調的版本,支持圖像和文本輸入並生成文本輸出,適用於多模態任務。
圖像生成文本
Transformers 英語

G
unsloth
134
1
Skywork SWE 32B GGUF
Apache-2.0
Skywork SWE 32B是一款專為軟件工程(SWE)任務設計的代碼代理模型,能有效提升相關任務的處理效率和準確性。
大型語言模型
S
lmstudio-community
311
1
Opencodereasoning Nemotron 32B IOI GGUF
Apache-2.0
基於Qwen2.5-32B-Instruct的大語言模型,專為代碼生成推理而進行了後訓練,支持32K上下文長度,適用於商業和非商業用途。
大型語言模型
Transformers

O
Mungert
1,317
2
Seed Coder 8B Instruct GGUF
MIT
Seed-Coder-8B-Instruct 是一款強大的開源代碼模型,具有以模型為中心、透明和高性能等特點,在多種編碼任務中表現出色。
大型語言模型
Transformers

S
unsloth
3,391
1
Qwen3 1.7B GGUF
Apache-2.0
Qwen3是通義千問系列大語言模型的最新代際,提供稠密和混合專家(MoE)模型的全面套件。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面實現了突破性進展。
大型語言模型
Q
QuantFactory
333
1
Opencodereasoning Nemotron 14B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-14B 是基於 Qwen2.5-14B-Instruct 進行後訓練的大型語言模型,專為代碼生成推理優化,支持32K tokens上下文長度。
大型語言模型 支持多種語言
O
Mungert
507
1
Opencodereasoning Nemotron 32B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-32B 是基於 Qwen2.5-32B-Instruct 的代碼生成推理模型,支持32K tokens上下文長度,適用於商業和非商業用途。
大型語言模型 支持多種語言
O
Mungert
633
1
Opencodereasoning Nemotron 32B IOI
Apache-2.0
OpenCodeReasoning-Nemotron-32B-IOI 是一個基於 Qwen2.5-32B-Instruct 的大型語言模型,專門針對代碼生成任務進行了推理後訓練,支持 32K token 的上下文長度。
大型語言模型
Transformers 支持多種語言

O
nvidia
152
20
Qwen3 0.6B FP8
Apache-2.0
Qwen3-0.6B-FP8是通義千問系列大語言模型的最新版本,提供0.6B參數的FP8量化版本,支持思維模式自由切換和多種語言任務。
大型語言模型
Transformers

Q
Qwen
5,576
43
Seed Coder 8B Base
MIT
Seed-Coder是一個8B規模的開源代碼模型家族,包含基礎版、指令版和推理版,專注於代碼生成和補全任務。
大型語言模型
Transformers

S
ByteDance-Seed
1,837
41
Qwen3 1.7B
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整的密集模型和專家混合(MoE)模型組合。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面取得突破性進展。
大型語言模型
Transformers

Q
Qwen
395.72k
113
Opencodereasoning Nemotron 32B
Apache-2.0
OpenCodeReasoning-Nemotron-32B 是一個基於 Qwen2.5-32B-Instruct 的大型語言模型,專門針對代碼生成推理能力進行訓練,支持 32K token 的上下文長度,可自由用於商業/非商業用途。
大型語言模型
Transformers 支持多種語言

O
nvidia
1,176
64
Opencodereasoning Nemotron 14B
Apache-2.0
OpenCodeReasoning-Nemotron-14B 是一個專為代碼生成推理而進行後訓練的大型語言模型,支持32K令牌的上下文長度。
大型語言模型
Transformers 支持多種語言

O
nvidia
247
18
Opencodereasoning Nemotron 7B
Apache-2.0
OpenCodeReasoning-Nemotron-7B 是基於 Qwen2.5-7B-Instruct 開發的大型語言模型,專注於代碼生成和推理任務,支持 32K tokens 的上下文長度。
大型語言模型
Transformers 支持多種語言

O
nvidia
5,410
30
Lucie 7B Instruct V1.1
Apache-2.0
基於Lucie-7B微調的多語言因果語言模型,支持法語和英語,專注於指令跟隨和文本生成任務。
大型語言模型 支持多種語言
L
OpenLLM-France
13.33k
9
Dbrx Instruct
其他
Databricks開發的專家混合(MoE)大語言模型,專精於少量輪次交互場景
大型語言模型
Transformers

D
databricks
5,005
1,112
Proctora
Proctora是基於混合專家架構(MoE)的模型,結合了角色扮演和事實性回答的專家模塊,支持32K上下文長度,在AI-RPG評估中表現優異。
大型語言模型
Transformers

P
Karko
78
5
Llama 2 7B 32K
基於Meta原版Llama-2 7B模型微調的開源長上下文語言模型,支持32K上下文長度
大型語言模型
Transformers 英語

L
togethercomputer
5,411
538
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98