I

Instructcodet5p 16b

Salesforceによって開発
InstructCodeT5+ 16Bはオープンソースの大規模コード言語モデルで、エンコーダー-デコーダーアーキテクチャを採用し、多様なモードをサポートし、幅広いコード理解と生成タスクに適しています。
ダウンロード数 314
リリース時間 : 5/16/2023

モデル概要

このモデルは、単一モーダルのコードデータと二重モーダルのコード-テキストデータから多様な事前学習タスクを通じて豊かな表現を学習し、コード理解と生成タスクをサポートします。

モデル特徴

多様な事前学習タスク
断片ノイズ除去、因果的言語モデリング、対照学習、テキスト-コードマッチングを含み、単一モーダルのコードデータと二重モーダルのコード-テキストデータから豊かな表現を学習します。
計算効率の良い事前学習方法
既存の凍結された大規模言語モデルを利用してコンポーネントを初期化し、モデル規模を効率的に拡張し、'浅いエンコーダー-深いデコーダー'アーキテクチャを採用します。
命令微調整
Code Alpacaの方法に従って命令微調整を行い、自然言語命令との整合性を高め、コード生成タスクにおけるモデルの性能を向上させます。

モデル能力

コード理解
コード生成
テキスト-コード検索
行レベルのコード補完
検索拡張生成

使用事例

コード生成
関数生成
自然言語命令に基づいて完全な関数コードを生成します。
HumanEvalベンチマークのゼロショットテキスト-コード生成タスクで、35.0% pass@1と54.5% pass@10を達成し、オープンソースモデルのSOTAを更新しました。
コード補完
行レベルのコード補完
コンテキストに基づいて不完全なコード行を補完します。
2つの行レベルコード補完タスクで平均Exact Matchが2.1向上しました。
数学プログラミング
数学問題解決
MathQA-PythonやGSM8K-Pythonなどの数学プログラミング問題を解決します。
10億パラメータ以下のCodeT5+モデルは、多くの137Bパラメータの大規模モデルを大幅に上回りました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase