D

Deepseek Coder V2 Lite Base AWQ

由TechxGenus開發
DeepSeek-Coder-V2 是一個開源的混合專家(MoE)代碼語言模型,在特定代碼任務中可實現與 GPT4-Turbo 相媲美的性能。
下載量 229.29k
發布時間 : 6/18/2024

模型概述

DeepSeek-Coder-V2 是基於 DeepSeek-Coder-V2-Base 的進一步預訓練模型,提升了編碼和數學推理能力,同時保持了通用語言任務性能。

模型特點

高性能代碼生成
在編碼和數學基準測試中表現優於 GPT4-Turbo、Claude 3 Opus 和 Gemini 1.5 Pro 等閉源模型
廣泛語言支持
支持的編程語言從 86 種擴展到 338 種
長上下文處理
上下文長度從 16K 擴展到 128K
高效架構
採用混合專家(MoE)架構,激活參數僅為 2.4B(16B 總參數)

模型能力

代碼生成
代碼補全
代碼插入
數學推理
多語言編程支持
長上下文處理

使用案例

軟件開發
算法實現
快速生成排序算法等常見代碼實現
生成的代碼質量與 GPT4-Turbo 相當
代碼補全
在開發環境中提供智能代碼補全建議
提高開發效率,減少編碼時間
數學計算
數學問題求解
解決複雜的數學推理問題
在數學基準測試中表現優異
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase