C

Codebertapy

由mrm8488開發
CodeBERTaPy 是一個類似RoBERTa的模型,基於GitHub的CodeSearchNet數據集針對Python語言訓練而成,專為代碼優化設計。
下載量 66
發布時間 : 3/2/2022

模型概述

CodeBERTaPy 是一個針對Python代碼優化的類RoBERTa Transformer模型,採用6層結構、8400萬參數,在完整Python語料上訓練4個週期。其分詞器基於字節級BPE算法,編碼效率比自然語言模型顯著提升。

模型特點

代碼優化分詞器
採用基於字節級BPE算法的分詞器,專為代碼設計,比自然語言模型縮短33%-50%的分詞長度
輕量級架構
6層Transformer結構,8400萬參數,與DistilBERT規模相當
Python專用
完全基於Python代碼語料訓練,對Python語法有深度理解

模型能力

Python代碼補全
代碼掩碼預測
代碼理解

使用案例

代碼輔助
變量名預測
在循環結構中預測正確的變量名
示例中準確預測'val'變量,概率達98%
API補全
預測框架API調用(如Flask/Keras)
正確預測Flask路由參數'name'和Keras層'Dense'
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase