# 思維鏈推理

Mmada 8B MixCoT
MIT
MMaDA是一類新型的多模態擴散基礎模型,在文本推理、多模態理解和文本到圖像生成等多個領域表現卓越。
文本生成圖像 Transformers
M
Gen-Verse
601
3
Deepseek R1 Llama 8B F32 GGUF
Apache-2.0
DeepSeek-R1-Llama-8B-F32-GGUF 是 DeepSeek-R1-Distill-Llama-8B 的量化版本,採用強化學習直接訓練,具備自我驗證、反思和生成擴展思維鏈等能力。
大型語言模型 Transformers 英語
D
prithivMLmods
326
1
Stockmark 2 VL 100B Beta
其他
Stockmark-2-VL-100B-beta 是一款具有1000億參數的日語專用視覺語言模型,具備思維鏈(CoT)推理能力,可用於文檔閱讀理解。
圖像生成文本 Transformers 支持多種語言
S
stockmark
184
8
Sarvamai Sarvam M GGUF
Apache-2.0
這是Sarvam-m模型的量化版本,支持多種印度語言和英語的文本生成任務。
大型語言模型 支持多種語言
S
bartowski
845
1
Qwenstoryteller I1 GGUF
Apache-2.0
QwenStoryteller是一個基於視覺語言模型的講故事模型,專注於視覺敘事和跨幀一致性。
圖像生成文本 英語
Q
mradermacher
340
0
Qwenstoryteller GGUF
Apache-2.0
基於Qwen的視覺敘事模型量化版本,專注於跨幀一致的故事生成和圖像轉文本任務
圖像生成文本 英語
Q
mradermacher
195
0
N1
MIT
N1 是由 GoofyLM 開發的一個小型實驗性思維鏈(COT)模型,基於 LLaMA 架構構建,專注於逐步推理問題。
大型語言模型 Transformers 英語
N
GoofyLM
426.51k
1
Qwen3 235B A22B AWQ
Apache-2.0
Qwen3-235B-A22B是Qwen系列最新一代的大語言模型,採用混合專家(MoE)架構,具有2350億參數和220億激活參數,在推理、指令遵循、代理能力和多語言支持方面表現卓越。
大型語言模型 Transformers
Q
cognitivecomputations
2,563
9
MAI DS R1 GGUF
MIT
MAI-DS-R1 是 DeepSeek-R1 推理模型,經過微軟 AI 團隊的後續訓練,以提升其在受限話題上的響應能力並優化其風險表現,同時保持其推理能力和競爭性能。
大型語言模型
M
unsloth
916
4
Videochat R1 7B Caption
Apache-2.0
VideoChat-R1_7B_caption 是一個基於 Qwen2-VL-7B-Instruct 的多模態視頻文本生成模型,專注於視頻內容理解和描述生成。
視頻生成文本 Transformers 英語
V
OpenGVLab
48
1
Hicoder R1 Distill Gemma 27B
基於谷歌Gemma-3 27B微調的大型語言模型,專注思維鏈推理和代碼生成任務,優化了GPU顯存和系統內存管理。
大型語言模型
H
tonyli8623
13
2
UIGEN T1.5 32B
Apache-2.0
UIGEN-T1.5是基於Qwen2.5-Coder-32B-Instruct微調的先進Transformer UI生成模型,專門用於生成現代且獨特的前端用戶界面。
大型語言模型 Transformers 英語
U
Tesslate
44
4
UIGEN T1.5 7B
Apache-2.0
基於Qwen2.5-Coder-7B-Instruct微調的高級UI生成模型,擅長生成現代且視覺吸引人的HTML/CSS代碼。
大型語言模型 Transformers 英語
U
Tesslate
121
5
UIGEN T1.5 14B
Apache-2.0
基於Qwen2.5-Coder-14B-Instruct微調的高級Transformer界面生成模型,擅長生成現代且獨特的前端用戶界面
大型語言模型 Transformers 英語
U
Tesslate
67
5
Deepseek R1 14b Cot Math Reasoning Full GGUF
MIT
14B參數規模的數學推理大語言模型,支持思維鏈推理
大型語言模型
D
tensorblock
838
2
Deephermes 3 Llama 3 3B Preview Abliterated
Apache-2.0
DeepHermes 3預覽版Abliterated是Nous Research旗艦級Hermes系列大語言模型的最新版本,整合了推理與常規LLM響應模式。
大型語言模型 Transformers 英語
D
prithivMLmods
338
2
Gemma 3 4b Reasoning
Apache-2.0
Gemma-3-4b推理是基於Transformer架構的語言模型,採用GRPO方法微調,專注於推理任務優化。
大型語言模型 Transformers 英語
G
ericrisco
53
2
Traceback 12b
Apache-2.0
TraceBack 12b 是基於 Mistral-Nemo-Instruct 架構的 4bit 量化版本,專注於指令遵循和思維鏈推理任務。
大型語言模型 Transformers
T
secemp9
1,470
29
Tifa DeepsexV2 7b MGRPO Safetensors GGUF
Apache-2.0
Tifa-DeepsexV2-7b-MGRPO-safetensors 是一個基於 transformers 庫的多語言(中文和英語)大語言模型,經過增量預訓練、監督微調和強化學習優化,適用於角色扮演和思維鏈任務。
大型語言模型 支持多種語言
T
mradermacher
283
1
Vikhr YandexGPT 5 Lite 8B It
其他
基於YandexGPT-5-Lite-8B-pretrain的指令模型,通過俄語數據集GrandMaster-PRO-MAX和Grounded-RAG-RU-v2進行SFT訓練,擅長俄語和英語任務。
大型語言模型 Transformers 支持多種語言
V
Vikhrmodels
3,058
20
Acemath 72B Instruct
AceMath 是一系列專為數學推理設計的前沿模型,基於 Qwen 改進,擅長使用思維鏈(CoT)推理解決英文數學問題。
大型語言模型 Safetensors 英語
A
nvidia
3,141
18
Llama3.1 Korean V0.1 Sft By Aidx
Apache-2.0
基於Llama3.1 instruct基礎模型開發,專為韓語及韓國多元文化場景優化的文本生成模型
大型語言模型 Safetensors 支持多種語言
L
SEOKDONG
1,592
3
MD Judge V0 2 Internlm2 7b
Apache-2.0
基於internlm2-7b-chat微調的安全防護工具,提供人類可讀的判定解釋和細粒度危害評分
大型語言模型 Transformers 英語
M
OpenSafetyLab
1,823
15
Flan T5 Tsa Thor Xl
MIT
基於Flan-T5-XL微調的目標情感分析模型,採用三跳推理思維鏈(THoR)框架訓練,專為英文文本設計
大型語言模型 Transformers 英語
F
nicolay-r
34
3
Llama 3 Cat 8b Instruct V1
基於llama 3 8b的微調模型,專注於系統提示的忠實度、幫助性和角色沉浸感
大型語言模型 Transformers
L
SteelStorage
20
51
Spyazweb AI DeepMind Project
Apache-2.0
基於Mixtral架構的多功能大語言模型,融合深度心智與自我優化能力,支持多語言文本生成與複雜推理任務
大型語言模型 Transformers 英語
S
LeroyDyer
97
3
Bagel 8b V1.0
其他
基於Meta的Llama-3構建的8B參數模型,使用貝果數據集微調,採用單一的llama-3指令格式。
大型語言模型 Transformers
B
jondurbin
14.11k
53
Quietstar 8 Ahead
基於Mistral-7b模型,採用Quiet-STaR方法進行持續預訓練,在生成每個輸出詞元前會先生成8個思維詞元,提升推理能力。
大型語言模型 Transformers
Q
ezelikman
239
90
Nli Entailment Verifier Xxl
基於flan-t5-xxl微調的NLI模型,用於驗證前提是否支持假設,特別優化多句前提場景
大型語言模型 Transformers 英語
N
soumyasanyal
164
5
Synthia 70B V1.5
Synthia-70B-v1.5是一個700億參數的大型語言模型,基於Llama2架構構建,專注於通過思維樹方法進行復雜推理和連貫回答。
大型語言模型 Transformers
S
migtissera
99
42
Llemma 34b
Llemma 34B是一個專注於數學領域的語言模型,基於Code Llama 34B的權重進行初始化,並在Proof-Pile-2數據集上訓練了500億個token。
大型語言模型 Transformers 英語
L
EleutherAI
60
99
Synthia 70B V1.2b
SynthIA(合成智能代理)是基於Orca風格數據集訓練的LLama-2-70B模型,擅長遵循指令及進行長對話。
大型語言模型 Transformers 英語
S
migtissera
136
29
Minotaur 13b Fixed
Apache-2.0
Minotaur 13B是基於LlaMA-13B進行指令微調的模型,使用完全開源數據集進行微調,確保可復現性。
大型語言模型 Transformers
M
openaccess-ai-collective
121
16
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase