# 32K長文本處理

Kanana 1.5 8b Instruct 2505 GGUF
Apache-2.0
Kanana 1.5 是 Kanana 模型系列的新版本,在編碼、數學和函數調用能力方面有顯著提升,能夠處理長達32K個令牌的輸入,使用YaRN時可處理多達128K個令牌。
大型語言模型 Transformers 支持多種語言
K
Mungert
606
2
Kanana 1.5 8b Instruct 2505
Apache-2.0
Kanana 1.5是Kanana模型家族的新版本,在編碼、數學和函數調用能力方面相比前代有顯著提升,支持32K tokens長度並可擴展至128K tokens。
大型語言模型 Transformers 支持多種語言
K
kakaocorp
1,932
26
Qwen3 235B A22B GGUF
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供稠密模型與混合專家(MoE)模型的完整套件。基於海量訓練數據,Qwen3在推理能力、指令遵循、智能體功能及多語言支持方面實現突破性進展。
大型語言模型
Q
Qwen
1,576
2
Qwen3 32B AWQ
Apache-2.0
Qwen3-32B-AWQ是通義千問系列最新一代32.8B參數的大語言模型,採用AWQ 4-bit量化技術,支持思維與非思維模式切換,具備卓越的推理、指令遵循和智能體能力。
大型語言模型 Transformers
Q
Qwen
35.67k
54
Qwen3 4B INT8
Apache-2.0
基於Hugging Face transformers庫的4B參數大語言模型,支持文本生成、思維模式切換、工具調用和長文本處理等功能。
大型語言模型 Transformers
Q
zhiqing
1,904
1
Qwen3 235B A22B FP8
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供稠密模型與混合專家(MoE)模型的完整套件。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面實現突破性進展。
大型語言模型 Transformers
Q
Qwen
47.30k
68
Qwen3 32B FP8
Apache-2.0
Qwen3-32B-FP8是通義千問系列最新一代32.8B參數大語言模型,支持思維與非思維模式切換,具備卓越的推理、指令遵循和智能體能力。
大型語言模型 Transformers
Q
Qwen
29.26k
47
Qwen3 14B FP8
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供全系列稠密模型和混合專家(MoE)模型,在推理、指令遵循、智能體能力和多語言支持方面取得突破性進展。
大型語言模型 Transformers
Q
Qwen
16.28k
19
Qwen3 8B FP8
Apache-2.0
Qwen3-8B-FP8是通義千問系列大語言模型的最新版本,提供FP8量化版本,支持思維模式與非思維模式的無縫切換,具備強大的推理能力和多語言支持。
大型語言模型 Transformers
Q
Qwen
22.18k
27
Qwen3 32B Unsloth Bnb 4bit
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供32.8B參數的密集模型,在推理能力、指令遵循、智能體功能和多語言支持方面實現突破性進展。
大型語言模型 Transformers 英語
Q
unsloth
10.03k
5
Qwen3 32B GGUF
Apache-2.0
Qwen3是阿里雲開發的大規模語言模型系列的最新版本,具有卓越的推理、指令跟隨和多語言支持能力。32B版本是其密集模型之一,支持在思考與非思考模式間切換。
大型語言模型 英語
Q
unsloth
123.35k
57
Qwen3 32B
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整的稠密模型和專家混合(MoE)模型組合。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面實現突破性進展。
大型語言模型 Transformers
Q
Qwen
502.01k
321
Kanana 1.5 8b Base
Apache-2.0
Kanana 1.5是Kakao公司開發的雙語大語言模型,支持英文和韓文,在編程、數學和函數調用能力方面有顯著提升,原生支持32K tokens上下文長度
大型語言模型 Transformers 支持多種語言
K
kakaocorp
432
7
Falcon3
Apache-2.0
Falcon3-10B-Instruct是Falcon3系列的開源基礎模型,擁有100億參數,專注於高質量指令跟隨任務,支持多語言處理,上下文長度可達32K tokens。
大型語言模型
F
cortexso
244
1
Midnight Miqu 103B V1.5
基於Miqu的103B混合模型,支持32K上下文長度,僅限個人使用
大型語言模型 Transformers
M
FluffyKaeloky
63
18
PULI LlumiX 32K
PULI LlumiX 32K 是一個基於LLaMA-2-7B-32K的大語言模型,經過匈牙利語和英語數據集的持續預訓練,支持32K上下文長度。
大型語言模型 Transformers 支持多種語言
P
NYTK
453
11
Midnight Miqu 103B V1.0
其他
基於Miqu洩露模型的103B參數混合模型,支持32K上下文長度
大型語言模型 Transformers
M
sophosympatheia
18
13
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase