D

Deepseek Coder V2 Lite Base AWQ

由 TechxGenus 开发
DeepSeek-Coder-V2 是一个开源的混合专家(MoE)代码语言模型,在特定代码任务中可实现与 GPT4-Turbo 相媲美的性能。
下载量 229.29k
发布时间 : 6/18/2024

模型简介

DeepSeek-Coder-V2 是基于 DeepSeek-Coder-V2-Base 的进一步预训练模型,提升了编码和数学推理能力,同时保持了通用语言任务性能。

模型特点

高性能代码生成
在编码和数学基准测试中表现优于 GPT4-Turbo、Claude 3 Opus 和 Gemini 1.5 Pro 等闭源模型
广泛语言支持
支持的编程语言从 86 种扩展到 338 种
长上下文处理
上下文长度从 16K 扩展到 128K
高效架构
采用混合专家(MoE)架构,激活参数仅为 2.4B(16B 总参数)

模型能力

代码生成
代码补全
代码插入
数学推理
多语言编程支持
长上下文处理

使用案例

软件开发
算法实现
快速生成排序算法等常见代码实现
生成的代码质量与 GPT4-Turbo 相当
代码补全
在开发环境中提供智能代码补全建议
提高开发效率,减少编码时间
数学计算
数学问题求解
解决复杂的数学推理问题
在数学基准测试中表现优异
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase