C

Codebertapy

Developed by mrm8488
CodeBERTaPyはRoBERTaに似たモデルで、GitHubのCodeSearchNetデータセットを使用してPython言語向けにトレーニングされ、コード最適化のために設計されています。
Downloads 66
Release Time : 3/2/2022

Model Overview

CodeBERTaPyはPythonコード最適化のためのRoBERTa風Transformerモデルで、6層構造、8400万パラメータを持ち、完全なPythonコーパスで4エポックトレーニングされています。そのトークナイザーはバイトレベルBPEアルゴリズムに基づいており、自然言語モデルよりも大幅にエンコーディング効率が向上しています。

Model Features

コード最適化トークナイザー
バイトレベルBPEアルゴリズムに基づくトークナイザーを採用し、コード用に設計されており、自然言語モデルよりも33%-50%トークン長が短縮されます
軽量アーキテクチャ
6層Transformer構造、8400万パラメータで、DistilBERTと同規模
Python専用
完全にPythonコードコーパスでトレーニングされており、Python構文を深く理解しています

Model Capabilities

Pythonコード補完
コードマスク予測
コード理解

Use Cases

コードアシスタンス
変数名予測
ループ構造で正しい変数名を予測
例では'val'変数を98%の確率で正確に予測
API補完
フレームワークAPI呼び出しを予測(Flask/Kerasなど)
Flaskのルートパラメータ'name'とKeras層'Dense'を正確に予測
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase