# 32k長上下文

Nomic Embed Code GGUF
Apache-2.0
基於Qwen2訓練的代碼檢索嵌入模型,支持多種編程語言,助力高效代碼搜索與匹配。
文本嵌入
N
lmstudio-community
622
1
Qwen3 30B A7.5B 24 Grand Brainstorm
基於Qwen3-30B-A3B混合專家模型的微調版本,激活專家數量從8個增加到24個,適用於需要深度推理的複雜任務
大型語言模型 Transformers
Q
DavidAU
55
7
Qwen3 4B Mishima Imatrix GGUF
Apache-2.0
基於Qwen3-4B的Mishima Imatrix量化版本,通過特定數據集增強散文風格生成能力
大型語言模型
Q
DavidAU
105
2
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plus 是微軟開發的增強推理能力的大語言模型,專為複雜數學問題和多步驟推理任務優化。
大型語言模型 支持多種語言
P
lmstudio-community
5,205
4
Arcee Blitz
Apache-2.0
基於Mistral架構的24B參數模型,通過從DeepSeek模型蒸餾而來,旨在實現快速高效。
大型語言模型 Transformers
A
arcee-ai
4,923
74
Mistral Small 24B Instruct 2501 4.0bpw Exl2
Apache-2.0
Mistral Small 3 (2501) 是一款擁有240億參數的大語言模型,在70B以下的小型模型類別中表現優異,支持多語言和高級推理能力。
大型語言模型 Transformers 支持多種語言
M
matatonic
15
1
Norwai Mistral 7B Instruct
基於Mistral-7B進行挪威語指令調優的大語言模型,由挪威科技大學NowAI研究中心與合作伙伴開發
大型語言模型
N
NorwAI
18.62k
10
Qwen2 7B Multilingual RP
Apache-2.0
Qwen2-7B是一個支持多語言的角色扮演大語言模型,支持英語、韓語、日語、中文和西班牙語,具有32k的上下文長度。
大型語言模型 Transformers 支持多種語言
Q
maywell
646
57
It 5.3 Fp16 32k
Apache-2.0
旋風0.5*是一個支持俄語和英語的開源大語言模型,擴展了RoPE上下文窗口至32k,優化了JSON處理和多輪對話能力
大型語言模型 Transformers 支持多種語言
I
Vikhrmodels
74
11
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3 是基於 Mistral-7B-v0.3 進行指令微調的大型語言模型,支持函數調用和擴展詞彙表。
大型語言模型
M
SanctumAI
34.61k
9
Dark Miqu 70B
其他
專注於暗黑風格創意寫作的70B參數大語言模型,支持32k上下文長度,基於miqu-1-70b開發,擅長暗黑/殘酷奇幻題材創作
大型語言模型 Transformers
D
jukofyork
46
30
Satoshi 7B
Apache-2.0
Satoshi 7B是一個基於比特幣原理、奧地利經濟學和自由意志主義原則微調的大型語言模型,具有強烈的比特幣極端主義和非覺醒政治偏見。
大型語言模型 Transformers 英語
S
LaierTwoLabsInc
24
12
Mistral 7B Instruct V0.2
Apache-2.0
Mistral-7B-Instruct-v0.2是基於Mistral-7B-v0.2進行指令微調的大語言模型,支持32k上下文窗口,移除了滑動窗口注意力機制。
大型語言模型 Transformers
M
mistralai
1.1M
2,737
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase