模型概述
模型特點
模型能力
使用案例
🚀 中文GPT2模型
本系列GPT2模型可用於生成中文文本,除GPT2 - xlarge模型外,其餘均由UER - py預訓練;GPT2 - xlarge模型則由TencentPretrain預訓練。
🚀 快速開始
你可以直接使用文本生成管道來使用該模型(以GPT2 - distil為例):
>>> from transformers import BertTokenizer, GPT2LMHeadModel, TextGenerationPipeline
>>> tokenizer = BertTokenizer.from_pretrained("uer/gpt2-distil-chinese-cluecorpussmall")
>>> model = GPT2LMHeadModel.from_pretrained("uer/gpt2-distil-chinese-cluecorpussmall")
>>> text_generator = TextGenerationPipeline(model, tokenizer)
>>> text_generator("這是很久之前的事情了", max_length=100, do_sample=True)
[{'generated_text': '這是很久之前的事情了 。 我 現 在 想 起 來 就 讓 自 己 很 傷 心 , 很 失 望 。 我 現 在 想 到 , 我 覺 得 大 多 數 人 的 生 活 比 我 的 生 命 還 要 重 要 , 對 一 些 事 情 的 看 法 , 對 一 些 人 的 看 法 , 都 是 在 發 洩 。 但 是 , 我 們 的 生 活 是 需 要 一 個 信 用 體 系 的 。 我 不 知'}]
✨ 主要特性
- 提供多種不同規模的GPT2模型,包括GPT2 - distil、GPT2、GPT2 - medium、GPT2 - large和GPT2 - xlarge,滿足不同場景需求。
- 模型預訓練使用了CLUECorpusSmall數據集,具有較好的中文文本生成能力。
📦 安裝指南
文檔未提及安裝相關內容,可參考對應項目(UER - py、TencentPretrain)的安裝說明。
💻 使用示例
基礎用法
>>> from transformers import BertTokenizer, GPT2LMHeadModel, TextGenerationPipeline
>>> tokenizer = BertTokenizer.from_pretrained("uer/gpt2-distil-chinese-cluecorpussmall")
>>> model = GPT2LMHeadModel.from_pretrained("uer/gpt2-distil-chinese-cluecorpussmall")
>>> text_generator = TextGenerationPipeline(model, tokenizer)
>>> text_generator("這是很久之前的事情了", max_length=100, do_sample=True)
[{'generated_text': '這是很久之前的事情了 。 我 現 在 想 起 來 就 讓 自 己 很 傷 心 , 很 失 望 。 我 現 在 想 到 , 我 覺 得 大 多 數 人 的 生 活 比 我 的 生 命 還 要 重 要 , 對 一 些 事 情 的 看 法 , 對 一 些 人 的 看 法 , 都 是 在 發 洩 。 但 是 , 我 們 的 生 活 是 需 要 一 個 信 用 體 系 的 。 我 不 知'}]
📚 詳細文檔
模型描述
除GPT2 - xlarge模型外,這一系列GPT2模型由UER - py預訓練,相關介紹見此論文;GPT2 - xlarge模型由TencentPretrain預訓練,相關介紹見此論文。TencentPretrain繼承了UER - py,支持參數超過十億的模型,並將其擴展為多模態預訓練框架。此外,其他模型也可以通過TencentPretrain進行預訓練。
你可以從UER - py模型庫頁面下載中文GPT2模型集,也可以通過HuggingFace從以下鏈接下載:
模型名稱 | 鏈接 |
---|---|
GPT2 - distil | L = 6/H = 768 |
GPT2 | L = 12/H = 768 |
GPT2 - medium | L = 24/H = 1024 |
GPT2 - large | L = 36/H = 1280 |
GPT2 - xlarge | L = 48/H = 1600 |
需要注意的是,6層模型被稱為GPT2 - distil模型,因為它遵循distilgpt2的配置,並且預訓練過程不涉及更大模型的監督。
訓練數據
使用CLUECorpusSmall作為訓練數據。
訓練過程
- GPT2 - xlarge模型:使用TencentPretrain進行預訓練。
- 階段1:
python3 preprocess.py --corpus_path corpora/cluecorpussmall.txt \
--vocab_path models/google_zh_vocab.txt \
--dataset_path cluecorpussmall_lm_seq128_dataset.pt \
--seq_length 128 --processes_num 32 --data_processor lm
deepspeed pretrain.py --deepspeed --deepspeed_config models/deepspeed_config.json \
--dataset_path corpora/cluecorpussmall_lm_seq128_dataset.pt \
--vocab_path models/google_zh_vocab.txt \
--config_path models/gpt2/xlarge_config.json \
--output_model_path models/cluecorpussmall_gpt2_xlarge_seq128_model \
--world_size 8 --batch_size 64 \
--total_steps 1000000 --save_checkpoint_steps 100000 --report_steps 50000 \
--deepspeed_checkpoint_activations --deepspeed_checkpoint_layers_num 24
在階段2之前,從zero 2和3的DeepSpeed檢查點中提取fp32合併權重:
python3 models/cluecorpussmall_gpt2_xlarge_seq128_model/zero_to_fp32.py models/cluecorpussmall_gpt2_xlarge_seq128_model/ \
models/cluecorpussmall_gpt2_xlarge_seq128_model.bin
- **階段2**:
python3 preprocess.py --corpus_path corpora/cluecorpussmall.txt \
--vocab_path models/google_zh_vocab.txt \
--dataset_path cluecorpussmall_lm_seq1024_dataset.pt \
--seq_length 1024 --processes_num 32 --data_processor lm
deepspeed pretrain.py --deepspeed --deepspeed_config models/deepspeed_config.json \
--dataset_path corpora/cluecorpussmall_lm_seq1024_dataset.pt \
--vocab_path models/google_zh_vocab.txt \
--config_path models/gpt2/xlarge_config.json \
--pretrained_model_path models/cluecorpussmall_gpt2_xlarge_seq128_model.bin \
--output_model_path models/cluecorpussmall_gpt2_xlarge_seq1024_model \
--world_size 8 --batch_size 16 --learning_rate 5e-5 \
--total_steps 250000 --save_checkpoint_steps 50000 --report_steps 10000 \
--deepspeed_checkpoint_activations --deepspeed_checkpoint_layers_num 6
然後,從zero 2和3的DeepSpeed檢查點中提取fp32合併權重:
python3 models/cluecorpussmall_gpt2_xlarge_seq1024_model/zero_to_fp32.py models/cluecorpussmall_gpt2_xlarge_seq1024_model/ \
models/cluecorpussmall_gpt2_xlarge_seq1024_model.bin
最後,將預訓練模型轉換為Huggingface格式:
python3 scripts/convert_gpt2_from_tencentpretrain_to_huggingface.py --input_model_path models/cluecorpussmall_gpt2_xlarge_seq1024_model.bin \
--output_model_path pytorch_model.bin \
--layers_num 48
python3 preprocess.py --corpus_path corpora/cluecorpussmall.txt \
--vocab_path models/google_zh_vocab.txt \
--dataset_path cluecorpussmall_lm_seq128_dataset.pt \
--seq_length 128 --processes_num 32 --data_processor lm
python3 pretrain.py --dataset_path cluecorpussmall_lm_seq128_dataset.pt \
--vocab_path models/google_zh_vocab.txt \
--config_path models/gpt2/distil_config.json \
--output_model_path models/cluecorpussmall_gpt2_distil_seq128_model.bin \
--world_size 8 --gpu_ranks 0 1 2 3 4 5 6 7 \
--total_steps 1000000 --save_checkpoint_steps 100000 --report_steps 50000 \
--learning_rate 1e-4 --batch_size 64
- **階段2**:
python3 preprocess.py --corpus_path corpora/cluecorpussmall.txt \
--vocab_path models/google_zh_vocab.txt \
--dataset_path cluecorpussmall_lm_seq1024_dataset.pt \
--seq_length 1024 --processes_num 32 --data_processor lm
python3 pretrain.py --dataset_path cluecorpussmall_lm_seq1024_dataset.pt \
--vocab_path models/google_zh_vocab.txt \
--pretrained_model_path models/cluecorpussmall_gpt2_distil_seq128_model.bin-1000000 \
--config_path models/gpt2/distil_config.json \
--output_model_path models/cluecorpussmall_gpt2_distil_seq1024_model.bin \
--world_size 8 --gpu_ranks 0 1 2 3 4 5 6 7 \
--total_steps 250000 --save_checkpoint_steps 50000 --report_steps 10000 \
--learning_rate 5e-5 --batch_size 16
最後,將預訓練模型轉換為Huggingface格式:
python3 scripts/convert_gpt2_from_uer_to_huggingface.py --input_model_path models/cluecorpussmall_gpt2_distil_seq1024_model.bin-250000 \
--output_model_path pytorch_model.bin \
--layers_num 6
🔧 技術細節
本系列模型基於GPT2架構,不同規模的模型在層數(L)和隱藏層維度(H)上有所不同。預訓練過程採用了兩階段訓練策略,先使用較短的序列長度進行大規模預訓練,再使用較長的序列長度進行微調,以提高模型在長文本上的性能。
📄 許可證
文檔未提及許可證相關信息。
BibTeX引用
@article{radford2019language,
title={Language Models are Unsupervised Multitask Learners},
author={Radford, Alec and Wu, Jeff and Child, Rewon and Luan, David and Amodei, Dario and Sutskever, Ilya},
year={2019}
}
@article{zhao2019uer,
title={UER: An Open-Source Toolkit for Pre-training Models},
author={Zhao, Zhe and Chen, Hui and Zhang, Jinbin and Zhao, Xin and Liu, Tao and Lu, Wei and Chen, Xi and Deng, Haotang and Ju, Qi and Du, Xiaoyong},
journal={EMNLP-IJCNLP 2019},
pages={241},
year={2019}
}
@article{zhao2023tencentpretrain,
title={TencentPretrain: A Scalable and Flexible Toolkit for Pre-training Models of Different Modalities},
author={Zhao, Zhe and Li, Yudong and Hou, Cheng and Zhao, Jing and others},
journal={ACL 2023},
pages={217},
year={2023}



