D

Deepseek V2 Lite

ZZichenによって開発
DeepSeek-V2-Liteは、経済効率に優れたエキスパート混合(MoE)言語モデルで、総パラメータ数16B、活性化パラメータ数2.4B、32kの文脈長をサポートします。
ダウンロード数 20
リリース時間 : 5/31/2024

モデル概要

DeepSeek-V2-Liteは、革新的なマルチヘッド潜在アテンション(MLA)とDeepSeekMoEアーキテクチャを採用した強力なエキスパート混合(MoE)言語モデルで、経済効率の高いトレーニングと推論性能を提供します。

モデル特徴

マルチヘッド潜在アテンション(MLA)
低ランクのキー値共同圧縮により、推論時のキー値キャッシュのボトルネックを解消し、効率的な推論をサポートします。
DeepSeekMoEアーキテクチャ
高性能なMoEアーキテクチャを採用し、より低コストで強力なモデルをトレーニングできます。
経済効率の高いトレーニングと推論
総パラメータ数16B、活性化パラメータ数2.4Bで、単一の40G GPUにデプロイ可能です。

モデル能力

テキスト生成
対話システム
コード生成
数学的推論
中国語処理
英語処理

使用事例

自然言語処理
テキスト補完
一貫性のあるテキスト補完を生成し、執筆補助やコンテンツ生成などのシナリオに適しています。
対話システム
インテリジェントな対話アシスタントを構築し、マルチターン対話や複雑な質問応答をサポートします。
コード生成
コード補完
高品質なコードスニペットを生成し、複数のプログラミング言語をサポートします。
HumanEvalテストで29.9点を獲得。
数学的推論
数学問題解決
代数、幾何学などの複雑な数学問題を解決します。
GSM8Kテストで41.1点を獲得。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase