C

Codebertapy

mrm8488によって開発
CodeBERTaPyはRoBERTaに似たモデルで、GitHubのCodeSearchNetデータセットを使用してPython言語向けにトレーニングされ、コード最適化のために設計されています。
ダウンロード数 66
リリース時間 : 3/2/2022

モデル概要

CodeBERTaPyはPythonコード最適化のためのRoBERTa風Transformerモデルで、6層構造、8400万パラメータを持ち、完全なPythonコーパスで4エポックトレーニングされています。そのトークナイザーはバイトレベルBPEアルゴリズムに基づいており、自然言語モデルよりも大幅にエンコーディング効率が向上しています。

モデル特徴

コード最適化トークナイザー
バイトレベルBPEアルゴリズムに基づくトークナイザーを採用し、コード用に設計されており、自然言語モデルよりも33%-50%トークン長が短縮されます
軽量アーキテクチャ
6層Transformer構造、8400万パラメータで、DistilBERTと同規模
Python専用
完全にPythonコードコーパスでトレーニングされており、Python構文を深く理解しています

モデル能力

Pythonコード補完
コードマスク予測
コード理解

使用事例

コードアシスタンス
変数名予測
ループ構造で正しい変数名を予測
例では'val'変数を98%の確率で正確に予測
API補完
フレームワークAPI呼び出しを予測(Flask/Kerasなど)
Flaskのルートパラメータ'name'とKeras層'Dense'を正確に予測
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase