D

Deepseek Coder V2 Lite Base AWQ

TechxGenusによって開発
DeepSeek-Coder-V2はオープンソースの混合専門家(MoE)コード言語モデルで、特定のコードタスクではGPT4-Turboに匹敵する性能を実現します。
ダウンロード数 229.29k
リリース時間 : 6/18/2024

モデル概要

DeepSeek-Coder-V2はDeepSeek-Coder-V2-Baseをベースにさらに事前学習されたモデルで、コーディングと数学的推論能力を向上させると同時に、汎用言語タスクの性能を維持しています。

モデル特徴

高性能コード生成
コーディングと数学のベンチマークテストで、GPT4-Turbo、Claude 3 Opus、Gemini 1.5 Proなどの閉ソースモデルを上回る性能を発揮します。
広範な言語サポート
サポートするプログラミング言語が86種から338種に拡張されました。
長コンテキスト処理
コンテキスト長が16Kから128Kに拡張されました。
効率的アーキテクチャ
混合専門家(MoE)アーキテクチャを採用し、活性化パラメータはわずか2.4B(総パラメータ16B)です。

モデル能力

コード生成
コード補完
コード挿入
数学的推論
多言語プログラミング対応
長コンテキスト処理

使用事例

ソフトウェア開発
アルゴリズム実装
ソートアルゴリズムなどの一般的なコード実装を迅速に生成します。
生成されるコードの品質はGPT4-Turboに匹敵します。
コード補完
開発環境でインテリジェントなコード補完提案を提供します。
開発効率を向上させ、コーディング時間を短縮します。
数学計算
数学問題解決
複雑な数学的推論問題を解決します。
数学のベンチマークテストで優れた性能を発揮します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase