C

Codet5p 16b

Salesforceによって開発
CodeT5+ 16Bはオープンソースのコード大規模言語モデルファミリーで、エンコーダー-デコーダーアーキテクチャを採用し、複数のモードをサポートし、幅広いコード理解と生成タスクに適しています。
ダウンロード数 292
リリース時間 : 5/17/2023

モデル概要

CodeT5+は新しいオープンソースのコード大規模言語モデルファミリーで、エンコーダー-デコーダーアーキテクチャを採用し、柔軟に複数のモード(エンコーダーのみ、デコーダーのみ、エンコーダー-デコーダー)をサポートし、幅広いコード理解と生成タスクに適しています。

モデル特徴

多様な事前学習タスク
断片のノイズ除去、因果言語モデリング、対比学習、テキスト-コードマッチングなどの複数の事前学習タスクを通じて訓練され、単一モードのコードデータと双モードのコード-テキストデータから豊富な表現を学習します。
効率的な計算事前学習方法
既存の凍結大規模言語モデル(CodeGenなど)を利用してモデルコンポーネントを初期化し、効率的な拡張(2B/6B/16Bパラメータ規模)を実現し、「浅いエンコーダー-深いデコーダー」アーキテクチャを採用します。
命令微調整
Code Alpacaに基づいて命令微調整を行い、自然言語命令に対応させます(InstructCodeT5+ 16Bバージョンを参照)。

モデル能力

コード理解
コード生成
テキスト-コード検索
行レベルのコード補完
検索強化コード生成

使用事例

コード生成
関数生成
自然言語の説明に基づいてコード関数を生成します。
HumanEvalベンチマークのゼロサンプルテキスト-コード生成タスクで、InstructCodeT5+ 16Bは35.0% pass@1と54.5% pass@10でオープンソースモデルのSOTAを更新しました。
コード理解
コード検索
自然言語のクエリに基づいて関連するコード断片を検索します。
8つのテキスト-コード検索タスクで平均MRRが3.2向上しました。
数学プログラミング
数学問題の解決
数学プログラミング問題(MathQA-PythonやGSM8K-Pythonなど)を解きます。
CodeT5+の10億以下のパラメータモデルは、複数の137Bパラメータの大規模モデルを大幅に上回ります。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase