# 長文本推理

Qwenlong L1 32B GGUF
Apache-2.0
QwenLong-L1-32B 是專為長上下文推理設計的大語言模型,通過強化學習訓練,在多個長上下文問答基準測試中表現出色,能有效處理複雜的推理任務。
大型語言模型 Transformers
Q
Mungert
927
7
Pocketdoc Dans PersonalityEngine V1.3.0 12b GGUF
Apache-2.0
一個基於llama.cpp量化的12B參數多語言大語言模型,支持角色扮演、故事創作及多領域專業任務
大型語言模型
P
bartowski
1,027
3
Dans PersonalityEngine V1.3.0 12b Q6 K GGUF
Apache-2.0
該模型是基於PocketDoc/Dans-PersonalityEngine-V1.3.0-12b轉換的GGUF格式模型,支持多種語言和任務,適用於通用目的、角色扮演、故事創作等場景。
大型語言模型 Transformers
D
NikolayKozloff
165
2
Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3B的INT4量化版本,通過權重量化減少75%的磁盤和GPU內存需求,保持高性能。
大型語言模型 Transformers
Q
RedHatAI
379
2
Phi 4 Reasoning GGUF
MIT
Phi-4-reasoning是基於Phi-4微調的先進推理模型,通過監督微調與強化學習,在數學、科學和編碼等領域展現出卓越的推理能力。
大型語言模型 Transformers
P
unsloth
6,046
7
Qwen3 14B GPTQ Int4
Apache-2.0
Qwen3-4B是通義千問系列最新40億參數大語言模型,支持思維模式與非思維模式切換,在推理、多語言和智能體任務中表現優異。
大型語言模型 Transformers
Q
JunHowie
640
2
Qwen3 1.7B Q8 0 GGUF
Apache-2.0
Qwen3-1.7B-Q8_0-GGUF是基於Qwen/Qwen3-1.7B轉換的GGUF格式模型,支持文本生成任務,具備多語言支持和高效的推理能力。
大型語言模型
Q
Triangle104
277
1
Qwen3 235B A22B
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供稠密模型與混合專家(MoE)模型的完整套件,在推理、指令遵循、智能體能力和多語言支持方面實現突破性進展。
大型語言模型 Transformers
Q
Qwen
159.10k
849
Qwen3 14B
Apache-2.0
Qwen3-14B是通義千問系列的最新大語言模型,具有148億參數,支持思維與非思維模式切換,在推理、指令遵循和智能體能力方面表現優異。
大型語言模型 Transformers
Q
Qwen
297.02k
152
Qwen3 8B
Apache-2.0
Qwen3是通義千問系列大語言模型的最新8B參數版本,支持思維模式與非思維模式無縫切換,具備強大的推理、指令遵循和智能體能力。
大型語言模型 Transformers
Q
Qwen
550.09k
294
Qwen3 4B
Apache-2.0
Qwen3-4B是通義千問系列大模型的最新版本,提供40億參數的語言模型,支持思維與非思維模式切換,具備強大的推理、指令遵循和多語言能力。
大型語言模型 Transformers
Q
Qwen
307.26k
195
Ring Lite Linear Preview
MIT
玲瓏線性預覽版是由InclusionAI開源發佈的混合線性稀疏大語言模型,總參數量17.1B,激活參數量3.0B。該模型基於混合線性注意力機制實現長文本推理,在推理過程中具備近線性計算複雜度與近恆定空間複雜度。
大型語言模型 支持多種語言
R
inclusionAI
25
8
360zhinao3 7B O1.5
Apache-2.0
360智腦3-7B-O1.5是奇虎360開源的長思維鏈模型,基於360智腦3-7B-Instruct微調,支持複雜推理任務。
大型語言模型 Transformers 支持多種語言
3
qihoo360
35
3
Gemma 3 12b It Q8 0 GGUF
該模型是從google/gemma-3-12b-it轉換而來的GGUF格式模型,適用於llama.cpp框架。
大型語言模型
G
NikolayKozloff
89
1
Serpens Opus 14B Exp
Apache-2.0
Serpens-Opus-14B-Exp是基於Qwen 2.5 14B架構設計的140億參數模型,旨在增強推理能力,適用於通用推理和問答任務。
大型語言模型 Transformers 支持多種語言
S
prithivMLmods
158
1
Deepseek R1 AWQ
MIT
DeepSeek R1模型的AWQ量化版本,優化了float16溢出問題,支持高效推理部署
大型語言模型 Transformers 支持多種語言
D
cognitivecomputations
30.46k
77
Modernbert Large Nli
Apache-2.0
基於ModernBERT-large模型,通過多任務微調優化的自然語言推理模型,在零樣本分類和NLI任務上表現優異。
大型語言模型 Transformers 支持多種語言
M
tasksource
61.52k
5
Deberta Small Long Nli
基於DeBERTa架構的小型零樣本分類模型,專為長文本自然語言推理任務優化,已轉換為ONNX格式適配Web端
文本分類 Transformers
D
onnx-community
19
1
Deberta Base Long Nli
Apache-2.0
基於DeBERTa-v3-base模型,上下文長度擴展至1280,並在tasksource數據集上進行了25萬步的微調,專注於自然語言推理和零樣本分類任務。
大型語言模型 Transformers
D
tasksource
541
23
Phi 3 Small 128k Instruct
MIT
Phi-3-Small-128K-Instruct是一個70億參數的輕量級開源模型,專注於高質量與強推理能力,支持128K長上下文,在常識、語言理解、數學、代碼等任務中表現優異。
大型語言模型 Transformers 其他
P
microsoft
7,194
176
Phi 3 Medium 128k Instruct
MIT
Phi-3-Medium-128K-Instruct是一個擁有140億參數的輕量級開源模型,專注於高質量與強推理能力,支持128K上下文長度。
大型語言模型 Transformers 其他
P
microsoft
17.52k
381
Deberta Small Long Nli
Apache-2.0
基於DeBERTa-v3-small模型,擴展上下文長度至1680標記,在tasksource數據集上微調,適用於長文本自然語言推理任務
大型語言模型 Transformers 支持多種語言
D
tasksource
40.85k
42
Deberta V3 Base Mnli Fever Docnli Ling 2c
MIT
基於8個NLI數據集訓練的DeBERTa-v3二分類模型,擅長文本蘊含判斷
文本分類 Transformers 英語
D
MoritzLaurer
234
11
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase