Qwen2.5 14B DeepSeek R1 1M
Q
Qwen2.5 14B DeepSeek R1 1M
由mkurman開發
融合推理模型和長上下文模型優勢的多用途大語言模型
下載量 2,195
發布時間 : 1/26/2025
模型概述
該模型結合了推理模型(Qwen2.5-14B-DeepSeek-R1)和長上下文模型(Qwen2.5-14B-Instruct-1M)的優勢,實現了多用途的性能表現,特別適合需要長文本理解和複雜推理的任務。
模型特點
多模型融合
結合推理模型和長上下文模型的優勢,實現更全面的性能表現
長文本處理
支持長達1M token的上下文長度,適合處理長文檔和複雜任務
多用途能力
兼具推理能力和長文本理解能力,適用於多種應用場景
模型能力
文本生成
代碼生成
長文本理解
複雜推理
編程輔助
使用案例
編程開發
代碼生成
根據自然語言描述生成Python等編程語言的代碼
可生成功能完整的代碼片段
代碼理解
分析長代碼庫和複雜邏輯
幫助開發者理解大型項目
文本處理
長文檔摘要
處理和分析長文檔內容
生成準確的內容摘要
複雜問題解答
回答需要多步推理的複雜問題
提供邏輯清晰的解答
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98