🚀 用于JavaScript代码文档生成的CodeTrans模型
该模型基于t5-base
架构,在JavaScript编程语言上进行预训练,可用于生成JavaScript函数的描述或在其他JavaScript代码任务上进行微调。它首次发布于 此仓库,在经过分词的JavaScript代码函数上进行训练,因此在处理经过分词的JavaScript函数时效果最佳。
🚀 快速开始
以下是使用Transformers的SummarizationPipeline调用此模型生成JavaScript函数文档的示例:
from transformers import AutoTokenizer, AutoModelWithLMHead, SummarizationPipeline
pipeline = SummarizationPipeline(
model=AutoModelWithLMHead.from_pretrained("SEBIS/code_trans_t5_base_code_documentation_generation_javascript"),
tokenizer=AutoTokenizer.from_pretrained("SEBIS/code_trans_t5_base_code_documentation_generation_javascript", skip_special_tokens=True),
device=0
)
tokenized_code = "function isStandardBrowserEnv ( ) { if ( typeof navigator !== 'undefined' && ( navigator . product === 'ReactNative' || navigator . product === 'NativeScript' || navigator . product === 'NS' ) ) { return false ; } return ( typeof window !== 'undefined' && typeof document !== 'undefined' ) ; }"
pipeline([tokenized_code])
你可以在 Colab笔记本 中运行此示例。
✨ 主要特性
- 基于
t5-base
模型架构,拥有自己的SentencePiece词汇模型。
- 在CodeSearchNet语料库的JavaScript数据集上进行单任务训练。
- 可用于未解析和未分词的JavaScript代码,但对经过分词的代码性能更佳。
📦 安装指南
文档未提及安装相关内容,可参考 此仓库 进行安装。
💻 使用示例
基础用法
from transformers import AutoTokenizer, AutoModelWithLMHead, SummarizationPipeline
pipeline = SummarizationPipeline(
model=AutoModelWithLMHead.from_pretrained("SEBIS/code_trans_t5_base_code_documentation_generation_javascript"),
tokenizer=AutoTokenizer.from_pretrained("SEBIS/code_trans_t5_base_code_documentation_generation_javascript", skip_special_tokens=True),
device=0
)
tokenized_code = "function isStandardBrowserEnv ( ) { if ( typeof navigator !== 'undefined' && ( navigator . product === 'ReactNative' || navigator . product === 'NativeScript' || navigator . product === 'NS' ) ) { return false ; } return ( typeof window !== 'undefined' && typeof document !== 'undefined' ) ; }"
pipeline([tokenized_code])
📚 详细文档
模型描述
此CodeTrans模型基于t5-base
模型,拥有自己的SentencePiece词汇模型,并在CodeSearchNet语料库的JavaScript数据集上进行单任务训练。
预期用途和限制
该模型可用于生成JavaScript函数的描述,或在其他JavaScript代码任务上进行微调。它可以处理未解析和未分词的JavaScript代码,但如果代码经过分词,性能会更好。
🔧 技术细节
该模型使用t5-base
架构,在CodeSearchNet语料库的JavaScript数据集上进行单任务训练,拥有自己的SentencePiece词汇模型。
📄 许可证
文档未提及许可证相关信息。
📊 评估结果
对于代码文档任务,不同模型在不同编程语言上取得了以下BLEU分数结果:
语言 / 模型 |
Python |
Java |
Go |
Php |
Ruby |
JavaScript |
CodeTrans-ST-Small |
17.31 |
16.65 |
16.89 |
23.05 |
9.19 |
13.7 |
CodeTrans-ST-Base |
16.86 |
17.17 |
17.16 |
22.98 |
8.23 |
13.17 |
CodeTrans-TF-Small |
19.93 |
19.48 |
18.88 |
25.35 |
13.15 |
17.23 |
CodeTrans-TF-Base |
20.26 |
20.19 |
19.50 |
25.84 |
14.07 |
18.25 |
CodeTrans-TF-Large |
20.35 |
20.06 |
19.54 |
26.18 |
14.94 |
18.98 |
CodeTrans-MT-Small |
19.64 |
19.00 |
19.15 |
24.68 |
14.91 |
15.26 |
CodeTrans-MT-Base |
20.39 |
21.22 |
19.43 |
26.23 |
15.26 |
16.11 |
CodeTrans-MT-Large |
20.18 |
21.87 |
19.38 |
26.08 |
15.00 |
16.23 |
CodeTrans-MT-TF-Small |
19.77 |
20.04 |
19.36 |
25.55 |
13.70 |
17.24 |
CodeTrans-MT-TF-Base |
19.77 |
21.12 |
18.86 |
25.79 |
14.24 |
18.62 |
CodeTrans-MT-TF-Large |
18.94 |
21.42 |
18.77 |
26.20 |
14.19 |
18.83 |
现有最优模型 |
19.06 |
17.65 |
18.07 |
25.16 |
12.16 |
14.90 |
由 Ahmed Elnaggar | LinkedIn 和 Wei Ding | LinkedIn 创建