# 開源大模型

SWE Agent LM 32B GGUF
Apache-2.0
SWE-agent-LM-32B是一個開源的軟件工程語言模型,基於Qwen/Qwen2.5-Coder-32B-Instruct微調,專為軟件工程任務設計。
大型語言模型 Transformers 英語
S
Mungert
2,933
1
Dots.llm1.inst
MIT
dots.llm1 是一個大規模的 MoE 模型,在 1420 億總參數中激活 140 億參數,性能可與最先進的模型相媲美。
大型語言模型 Transformers 支持多種語言
D
rednote-hilab
440
97
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3-30B-A3B是基於Qwen3-30B-A3B-Base的大語言模型,支持文本生成任務,採用超低位量化技術優化內存效率。
大型語言模型
Q
Mungert
2,135
1
Bielik 4.5B V3.0 Instruct GGUF
Apache-2.0
Bielik-4.5B-v3.0-Instruct-GGUF 是 SpeakLeash 發佈的波蘭語大語言模型,基於 Bielik-4.5B-v3.0-Instruct 轉換的 GGUF 量化格式,適用於本地推理。
大型語言模型 其他
B
speakleash
693
4
Qwen3 14B GGUF
Apache-2.0
Qwen3-14B是基於Qwen/Qwen3-14B-Base生成的GGUF格式模型,支持文本生成任務,採用IQ-DynamicGate超低比特量化技術優化內存效率。
大型語言模型
Q
Mungert
1,597
6
Qwen3 32B 128K GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大語言模型,提供了一系列密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3在推理、指令遵循、代理能力和多語言支持方面取得了突破性進展。
大型語言模型 英語
Q
unsloth
20.51k
20
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持100多種語言,在推理、指令遵循、代理能力和多語言支持方面表現優異。
大型語言模型 英語
Q
unsloth
15.41k
17
Qwen3 32B Unsloth Bnb 4bit
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供32.8B參數的密集模型,在推理能力、指令遵循、智能體功能和多語言支持方面實現突破性進展。
大型語言模型 Transformers 英語
Q
unsloth
10.03k
5
Openbuddy Qwq 32b V25.2q 200k
Apache-2.0
專為增強量化推理能力優化的多語言聊天機器人,支持8種語言,基於Qwen/QwQ-32B模型開發
大型語言模型 支持多種語言
O
OpenBuddy
41
3
GLM Z1 9B 0414 Q4 K M GGUF
MIT
本模型是THUDM/GLM-Z1-9B-0414的GGUF格式轉換版本,支持中英文文本生成任務。
大型語言模型 支持多種語言
G
Aldaris
205
2
Deepcoder 1.5B Preview GGUF
MIT
基於DeepSeek-R1-Distilled-Qwen-1.5B微調的代碼推理大語言模型,採用分佈式強化學習技術擴展長上下文處理能力
大型語言模型 英語
D
Mungert
888
2
Open Thoughts OpenThinker2 32B GGUF
Apache-2.0
OpenThinker2-32B的量化版本,使用llama.cpp進行imatrix量化,支持多種量化類型,適用於文本生成任務。
大型語言模型
O
bartowski
1,332
10
Stockllm
FinSeer StockLLM 是一個開源的10億參數大語言模型,專為金融時間序列預測設計,採用檢索增強生成(RAG)框架。
大型語言模型 Transformers 英語
S
TheFinAI
29
1
Gemma 3 4b It Q8 0 GGUF
這是Google Gemma 3B模型的GGUF量化版本,適用於本地部署和推理。
大型語言模型
G
NikolayKozloff
56
2
Gemma 3 12b It Q5 K S GGUF
這是Google Gemma 3B模型的GGUF量化版本,適用於本地推理,支持文本生成任務。
大型語言模型
G
NikolayKozloff
16
1
Gemma 3 12b It Q5 K M GGUF
這是由google/gemma-3-12b-it轉換而來的GGUF格式模型,適用於llama.cpp框架。
大型語言模型
G
NikolayKozloff
46
1
Instella 3B Stage1
其他
Instella是由AMD開發的30億參數開源語言模型系列,基於AMD Instinct™ MI300X GPU訓練,性能超越同規模全開源模型。
大型語言模型 Transformers
I
amd
397
12
Deepseek R1 Distill Qwen 32B Quantized.w8a8
MIT
DeepSeek-R1-Distill-Qwen-32B的量化版本,通過INT8權重量化和激活量化減少內存需求並提高計算效率
大型語言模型 Transformers
D
RedHatAI
3,572
11
Lucie 7B
Apache-2.0
Lucie-7B是由LINAGORA和OpenLLM-France聯合構建的70億參數多語言因果語言模型,基於Llama-3架構,在3萬億令牌的多語言數據上預訓練而成。
大型語言模型 TensorBoard 支持多種語言
L
OpenLLM-France
1,262
20
Rombos LLM V2.5 Qwen 32b
Apache-2.0
Rombos-LLM-V2.5-Qwen-32b是基於Qwen2.5-32B持續微調的模型,性能優於原始的指令模型和基礎模型。
大型語言模型 Transformers
R
rombodawg
4,220
62
Reflection Llama 3.1 70B
Reflection Llama-3.1 70B 是一款開源大語言模型,採用'反思調優'技術訓練,能夠自主檢測推理錯誤並修正方向。
大型語言模型 Transformers
R
mattshumer
199
1,712
Llama3 ChatQA 2 8B
基於Llama-3基礎模型開發的128K長上下文大語言模型,專注於提升RAG和長文本理解能力
大型語言模型 PyTorch 英語
L
nvidia
437
16
Xgen Mm Phi3 Mini Instruct Interleave R V1.5
Apache-2.0
xGen-MM是Salesforce AI Research開發的一系列最新基礎大型多模態模型(LMMs),在BLIP系列成功設計的基礎上進行了改進,通過基礎性增強確保了更強大和卓越的模型基礎。
圖像生成文本 英語
X
Salesforce
7,373
51
Tarsier 7b
Tarsier-7b 是 Tarsier 系列的開源大規模視頻語言模型,專注於生成高質量視頻描述並具備優秀的通用視頻理解能力。
視頻生成文本 Transformers
T
omni-research
635
23
Llama 3 ChocoLlama 8B Instruct
基於Llama-3-8B的荷蘭語指令優化大模型,通過SFT和DPO在多個荷蘭語指令數據集上微調而成
大型語言模型 Transformers 其他
L
ChocoLlama
268
6
Mistral 7B V0.3
Apache-2.0
Mistral-7B-v0.3是基於Mistral-7B-v0.2升級的大語言模型,主要改進是擴展了詞彙表至32768個詞元。
大型語言模型 Transformers
M
mistralai
442.55k
472
Xgen Mm Phi3 Mini Instruct R V1
xGen-MM是Salesforce AI Research開發的最新基礎大型多模態模型系列,基於BLIP系列改進,具有強大的圖像理解和文本生成能力。
圖像生成文本 Transformers 英語
X
Salesforce
804
186
Llama 2 13B QServe
Llama 2 是 Meta 開發的一系列開源大語言模型,包括不同規模的預訓練和微調版本,適用於對話和生成任務。
大型語言模型 Transformers
L
mit-han-lab
21
1
Hamza Xl
Llama 2 是 Meta 發佈的新一代開源大語言模型,包含 7B、13B 和 70B 三種參數規模版本,支持商用許可。
大型語言模型 Transformers
H
emrecanacikgoz
71
2
Llama 3 Open Ko 8B Gguf
基於Llama-3-8B框架繼續預訓練的韓語語言模型,使用超過60GB去重文本數據訓練
大型語言模型 支持多種語言
L
teddylee777
7,211
47
Snowflake Arctic Base
Apache-2.0
雪花北極是由雪花AI研究團隊開發的密集混合專家(MoE)架構大語言模型,具有4800億參數,專為高效文本和代碼生成設計。
大型語言模型 Transformers
S
Snowflake
166
67
Lm3 8 Bnb 4bit V1.0
基於Llama 2架構的韓語文本生成模型,專注於韓語自然語言處理任務
大型語言模型 Transformers 韓語
L
haes95
18
1
Wizardlaker 7B
Apache-2.0
巫師湖7B是新一代WizardLM 2 7B模型與定製DolphinLake模型的融合模型,表現優異。
大型語言模型 Transformers
W
Noodlz
22
2
Microsoft WizardLM 2 7B
Apache-2.0
WizardLM-2 7B是微軟AI團隊開發的高效大語言模型,基於Mistral-7B架構,在多語言、推理和代理任務上表現優異。
大型語言模型 Transformers
M
lucyknada
168
51
Openelm 3B
OpenELM是一組開源高效語言模型,採用分層縮放策略優化參數分配,提升模型準確率。包含270M、450M、1.1B和3B四種參數規模,提供預訓練和指令調優版本。
大型語言模型 Transformers
O
apple
1,436
123
Jetmoe 8b
Apache-2.0
JetMoE-8B是一款高效開源大語言模型,以不足10萬美元的訓練成本達到LLaMA2-7B性能水平,專為低資源環境設計。
大型語言模型 Transformers
J
jetmoe
1,337
246
Mistral Orpo Beta
MIT
Mistral-ORPO-β是基於Mistral-7B使用ORPO方法微調的7B參數語言模型,無需監督微調預熱階段即可直接學習偏好。
大型語言模型 Transformers 英語
M
kaist-ai
18
38
Cogvlm Grounding Generalist Hf Quant4
Apache-2.0
CogVLM是一款強大的開源視覺語言模型,支持目標檢測和視覺問答等任務,採用4位精度量化。
圖像生成文本 Transformers
C
Rodeszones
50
9
Aya 101
Apache-2.0
Aya 101 是一個支持101種語言指令的大規模多語言生成式語言模型,在各類評估中優於同類模型。
大型語言模型 Transformers 支持多種語言
A
CohereLabs
3,468
640
Smaug 72B V0.1
其他
首個平均分突破80%的開源大語言模型,基於MoMo-72B-lora-1.8.7-DPO微調,採用創新的DPO-Positive技術優化偏好學習
大型語言模型 Transformers
S
abacusai
119
468
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase