# 長上下文推理

Deepseek R1 0528 AWQ
MIT
DeepSeek R1 0528的AWQ量化模型,支持使用vLLM在8塊80GB GPU上以全上下文長度運行。
大型語言模型 Transformers 支持多種語言
D
cognitivecomputations
145
7
Qwenlong L1 32B
Apache-2.0
QwenLong-L1是基於強化學習訓練的長上下文大推理模型,在七個長上下文文檔問答基準測試中表現優異。
大型語言模型 Transformers
Q
Tongyi-Zhiwen
683
106
Llama 3.1 Nemotron Nano 4B V1.1 GGUF
其他
由英偉達發佈的4B參數規模大語言模型,支持128k tokens上下文長度,專為推理、對話及RAG等任務優化
大型語言模型 英語
L
lmstudio-community
588
1
AM Thinking V1 GGUF
Apache-2.0
AM Thinking v1是由A-M團隊開發的基於Qwen 2.5-32B-Base的大語言模型,增強推理能力,支持132k tokens的上下文長度。
大型語言模型
A
lmstudio-community
306
1
M1ndb0t 0M3N Q4 K M GGUF
基於Qwen3-14B大語言模型的高性能GGUF轉換版本,專為創造性推理、深層夢境邏輯、智能體交互和多語言指令優化
大型語言模型 英語
M
TheMindExpansionNetwork
18
1
Dots.llm1.inst
MIT
dots.llm1 是一個大規模的 MoE 模型,在 1420 億總參數中激活 140 億參數,性能可與最先進的模型相媲美。
大型語言模型 Transformers 支持多種語言
D
rednote-hilab
440
97
Dans PersonalityEngine V1.3.0 12b
Apache-2.0
基於50+專業數據集微調的多功能模型,擅長創意任務和技術挑戰,支持10種語言
大型語言模型 Transformers
D
PocketDoc
112
13
Dans PersonalityEngine V1.3.0 24b
Apache-2.0
一個基於50多個專業數據集微調的多功能模型系列,在創意任務和技術挑戰方面均表現出色
大型語言模型 Transformers
D
PocketDoc
402
29
Qwen2.5 Math 7B RoPE 300k
Apache-2.0
Qwen2.5-Math-7B-RoPE-300k是基於Qwen2.5-Math-7B的變體,通過調整旋轉位置編碼的基礎頻率擴展了上下文長度至32k標記。
大型語言模型 Transformers 英語
Q
open-r1
4,528
2
Phi 4 Reasoning Plus
MIT
Phi-4推理增強版是微軟研究院開發的140億參數開源推理模型,通過監督微調和強化學習優化,專注於數學、科學和編程領域的高級推理能力。
大型語言模型 Transformers 支持多種語言
P
unsloth
189
2
Qwen3 8B NEO Imatrix Max GGUF
Apache-2.0
基於Qwen3-8B模型的NEO Imatrix量化版本,支持32K長上下文和增強推理能力
大型語言模型
Q
DavidAU
178
1
Qwen3 4B NEO Imatrix Max GGUF
Apache-2.0
這是基於Qwen3-4B模型的NEO Imatrix量化版本,採用BF16格式的MAX輸出張量以提升推理和輸出生成能力,支持32k上下文長度。
大型語言模型
Q
DavidAU
1,152
3
Qwen3 30B A3B Base
Apache-2.0
Qwen3-30B-A3B-Base是通義千問系列最新一代30.5B參數規模的混合專家(MoE)大語言模型,支持119種語言和32k上下文長度。
大型語言模型 Transformers
Q
Qwen
9,745
33
Qwen3 0.6B
Apache-2.0
Qwen3-0.6B是通義千問系列最新一代0.6B參數規模的大語言模型,支持思維與非思維模式切換,具備強大的推理、指令遵循和智能體能力。
大型語言模型 Transformers
Q
Qwen
497.09k
264
Delta Pavonis Qwen 14B
Apache-2.0
基於千問2.5 14B模態架構設計的增強推理模型,優化通用推理與問答場景,支持128K上下文和8K輸出
大型語言模型 Transformers
D
prithivMLmods
547
3
Llama 3 70b Arimas Story RP V1.6 4.0bpw H6 Exl2
基於Llama 3 70B架構的合併模型,專為故事生成和角色扮演優化,支持長上下文窗口
大型語言模型 Transformers
L
kim512
20
1
Gemma 3 R1984 4B
Gemma3-R1984-4B是基於谷歌Gemma-3-4B模型構建的強大智能體AI平臺,支持多模態文件處理和深度研究能力。
圖像生成文本 Transformers 支持多種語言
G
ginipick
44
4
Granite 3.3 2b Instruct GGUF
Apache-2.0
IBM-Granite的20億參數指導模型,支持多語言和長上下文任務,具備結構化推理能力。
大型語言模型
G
lmstudio-community
444
2
Llama 4 Maverick 17B 128E Instruct FP8
其他
Llama 4系列是Meta開發的多模態AI模型,支持文本與圖像交互,採用混合專家架構(MoE),在文本和圖像理解方面具有行業領先性能。
文本生成圖像 Transformers 支持多種語言
L
meta-llama
64.29k
107
Raptor X5 UIGEN
Apache-2.0
Raptor-X5-UIGEN是基於Qwen 2.5 14B模態架構設計的大語言模型,專注於UI設計、極簡編碼和內容密集型開發,具有增強的推理能力和結構化響應生成。
大型語言模型 Transformers 英語
R
prithivMLmods
17
2
Granite 3.2 2b Instruct GGUF
Apache-2.0
Granite-3.2-2B-Instruct是一個20億參數的長上下文AI模型,專為思維推理能力微調。基於Granite-3.1-2B-Instruct構建,通過混合使用寬鬆許可的開源數據集和內部生成的合成數據訓練,旨在提升推理任務表現。
大型語言模型
G
Mungert
754
3
Theta Lyrae Qwen 14B
Apache-2.0
Theta-Lyrae-Qwen-14B是基於Qwen 2.5 14B模態架構設計的140億參數模型,優化了通用推理和問答能力,在上下文理解、邏輯推理和多步驟問題解決方面表現優異。
大型語言模型 Transformers
T
prithivMLmods
21
2
Galactic Qwen 14B Exp2
Apache-2.0
Galactic-Qwen-14B-Exp2 是基於 Qwen 2.5 14B 架構設計的大語言模型,專注於增強推理能力,擅長上下文理解、邏輯推理和多步驟問題解決。
大型語言模型 Transformers 支持多種語言
G
prithivMLmods
558
4
Romboultima 32B
MIT
RombUltima-32B 是一個融合模型,結合了 Rombos-LLM-V2.5-Qwen-32b 和 Ultima-32B 的優勢,優化了推理能力、多語言理解能力以及多輪對話表現。
大型語言模型 Transformers
R
FINGU-AI
75
4
Modernbert Base Nli
Apache-2.0
ModernBERT 是一個在多任務源的自然語言推理(NLI)任務上微調的模型,擅長零樣本分類和長上下文推理。
大型語言模型 Transformers 支持多種語言
M
tasksource
1,867
20
Smart Lemon Cookie 7B GGUF
基於GGUF格式的無審查角色扮演模型,具有出色的推理和上下文跟蹤能力,適用於本地AI聊天應用。
大型語言模型 Transformers
S
backyardai
811
9
C4ai Command R Plus Imat.gguf
C4AI Command R+是1040億參數的多語言大語言模型,支持檢索增強生成(RAG)和工具調用,優化了推理、摘要和問答等任務。
大型語言模型
C
dranger003
2,783
140
C4ai Command R Plus
Command R+是Cohere Labs推出的1040億參數開放權重研究版本模型,具備檢索增強生成(RAG)和工具使用能力,支持多語言和多步任務自動化。
大型語言模型 Transformers 支持多種語言
C
CohereLabs
8,002
1,719
Codellama 70b Hf
Code Llama是Meta推出的70億至700億參數規模的代碼生成與理解模型系列,本模型為700億參數基礎版
大型語言模型 Transformers 其他
C
meta-llama
184
24
Einstein V4 7B
其他
Einstein-v4-7B是基於Mistral-7B-v0.1在多樣化科學數據集上完整微調的大語言模型,專注於STEM領域任務
大型語言模型 Transformers 英語
E
Weyaxi
43
49
Tinyllama 1.1B 32k
Apache-2.0
基於TinyLlama-1.1B的32k上下文微調版本,通過增大rope theta實現長上下文處理能力
大型語言模型 Transformers 英語
T
Doctor-Shotgun
51
29
Mixtral 8x7B Instruct V0.1
Apache-2.0
Mixtral-8x7B是一個預訓練的生成式稀疏混合專家模型,在多數基準測試中表現優於Llama 2 70B。
大型語言模型 Transformers 支持多種語言
M
mistralai
505.97k
4,397
Flan Ul2
Apache-2.0
基於T5架構的編碼器-解碼器模型,通過Flan提示調優優化,支持多語言任務處理
大型語言模型 Transformers 支持多種語言
F
google
3,350
554
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase