Qwen2.5 14B DeepSeek R1 1M
Q
Qwen2.5 14B DeepSeek R1 1M
由 mkurman 开发
融合推理模型和长上下文模型优势的多用途大语言模型
下载量 2,195
发布时间 : 1/26/2025
模型简介
该模型结合了推理模型(Qwen2.5-14B-DeepSeek-R1)和长上下文模型(Qwen2.5-14B-Instruct-1M)的优势,实现了多用途的性能表现,特别适合需要长文本理解和复杂推理的任务。
模型特点
多模型融合
结合推理模型和长上下文模型的优势,实现更全面的性能表现
长文本处理
支持长达1M token的上下文长度,适合处理长文档和复杂任务
多用途能力
兼具推理能力和长文本理解能力,适用于多种应用场景
模型能力
文本生成
代码生成
长文本理解
复杂推理
编程辅助
使用案例
编程开发
代码生成
根据自然语言描述生成Python等编程语言的代码
可生成功能完整的代码片段
代码理解
分析长代码库和复杂逻辑
帮助开发者理解大型项目
文本处理
长文档摘要
处理和分析长文档内容
生成准确的内容摘要
复杂问题解答
回答需要多步推理的复杂问题
提供逻辑清晰的解答
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98