# 128k長文本處理

Mistral Small 3.2 24B Instruct 2506 GGUF
Apache-2.0
Mistral Small 3.2 24B Instruct 2506 是一個多語言大語言模型,支持文本和圖像輸入,文本輸出,具有128k的上下文長度。
圖像生成文本 支持多種語言
M
lmstudio-community
5,588
1
Qwen3 30B A3B Llamafile
Apache-2.0
Qwen3是Qwen系列最新一代的大語言模型,提供了一系列密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3在推理、指令遵循、代理能力和多語言支持方面取得了突破性進展。
大型語言模型
Q
Mozilla
143
1
Qwen3 4B Llamafile
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持128k上下文窗口和100多種語言,在推理、指令遵循和代理能力方面表現優異。
大型語言模型
Q
Mozilla
995
2
Llama 3.1 8B Instruct
Meta Llama 3.1系列多語言大型語言模型,包含8B參數規模,針對多語言對話用例優化,支持8種語言。
大型語言模型 Safetensors 支持多種語言
L
RedHatAI
292
1
Qwen2.5 VL 7B Instruct GGUF
Apache-2.0
Qwen2.5 VL 7B Instruct量化模型是一款強大的多模態模型,支持圖像和文本輸入並生成文本輸出,在多領域具有廣泛應用價值。
圖像生成文本 英語
Q
lmstudio-community
11.29k
1
Granite 4.0 Tiny Base Preview
Apache-2.0
Granite-4.0-Tiny-Base-Preview 是IBM開發的70億參數混合專家(MoE)語言模型,具有128k token上下文窗口,採用Mamba-2技術增強表達能力。
大型語言模型 Transformers
G
ibm-granite
156
12
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1系列是多語言大語言模型(LLMs)的集合,包括8B、70B和405B大小的預訓練和指令調優生成模型。8B版本針對多語言對話用例進行了優化,在常見基準測試中表現優異。
大型語言模型 支持多種語言
L
unsloth
4,071
6
Gemma 3 27B It Qat GGUF
Google推出的Gemma 3 27B IT模型,適用於多種文本生成和圖像理解任務,支持128k令牌的上下文長度和多模態圖像處理。
圖像生成文本
G
lmstudio-community
41.35k
8
Dewey En Beta
MIT
杜威是一種新型的長上下文嵌入模型,基於ModernBERT架構,支持128k上下文窗口,在長文檔檢索任務中表現優異。
文本嵌入 Transformers 英語
D
infgrad
447
14
Gemma 3 4b It MAX NEO Imatrix GGUF
Apache-2.0
基於谷歌Gemma-3模型的極致量化版本,採用NEO Imatrix技術增強性能,支持128k上下文長度,適用於全場景任務
大型語言模型
G
DavidAU
2,558
7
Qwen2.5 QwQ 37B Eureka Triple Cubed
Apache-2.0
QwQ-32B的增強版本,通過'立方'和'三重立方'方法提升推理和輸出能力,支持128k上下文。
大型語言模型 Transformers 其他
Q
DavidAU
210
5
Reformed Christian Bible Expert 12B
Apache-2.0
專為改革宗神學和聖經研究優化的語言模型,基於Mistral-Nemo-Instruct-2407構建,具備卓越的神學推理能力,支持128k標記的上下文窗口。
大型語言模型
R
sleepdeprived3
67
6
Llama 3.2 4X3B MOE Ultra Instruct 10B GGUF
Apache-2.0
基於Llama 3.2的專家混合模型,整合四個3B模型形成10B參數模型,支持128k上下文長度,擅長指令遵循和全場景生成。
大型語言模型 英語
L
DavidAU
277
7
Llama 3.3 70B Instruct GGUF
Llama-3.3-70B-Instruct是Meta發佈的多語言大語言模型,針對多語言對話用例進行了優化,在多個行業基準測試中表現優異。
大型語言模型 Transformers 英語
L
unsloth
7,922
65
Llama 3.2 3B Instruct QLORA INT4 EO8
Llama 3.2是Meta推出的多語言大語言模型,提供1B和3B兩種參數規模,支持多種語言任務,性能優於現有開源和閉源模型。
大型語言模型 PyTorch 支持多種語言
L
meta-llama
289
68
Llama 3.2 1B Instruct AWQ
Llama 3.2系列是多語言大語言模型,包含1B和3B參數規模,針對多語言對話用例優化,包括代理檢索和摘要任務。
大型語言模型 Transformers 支持多種語言
L
AMead10
429
5
Mistral Nemo Base 2407 Chatml
Apache-2.0
Mistral-Nemo-Base-2407是由Mistral AI與NVIDIA聯合訓練的120億參數生成式文本預訓練模型,性能超越同規模或更小規模的模型。
大型語言模型 Transformers 支持多種語言
M
IntervitensInc
191
3
Mistral Nemo Base 2407
Apache-2.0
Mistral-Nemo-Base-2407是由Mistral AI與NVIDIA聯合訓練的120億參數生成式文本預訓練模型,性能超越同類或更小規模的現有模型。
大型語言模型 Transformers 支持多種語言
M
mistralai
44.76k
304
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型 Transformers 支持多種語言
L
meta-llama
5.7M
3,898
Mistral Nemo Instruct 2407
Apache-2.0
Mistral-Nemo-Instruct-2407是基於Mistral-Nemo-Base-2407進行指令微調的大語言模型,由Mistral AI與NVIDIA聯合訓練,性能超越同規模或更小的現有模型。
大型語言模型 Transformers 支持多種語言
M
mistralai
149.79k
1,519
Minicpm 2B 128k
MiniCPM是由面壁智能與清華大學自然語言處理實驗室聯合開發的端側大語言模型,非詞嵌入參數量僅24億(2.4B),支持128k上下文窗口。
大型語言模型 Transformers 支持多種語言
M
openbmb
145
42
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase