🚀 国际象棋GPT聊天版v1
国际象棋GPT聊天版v1是国际象棋GPT基础版v1经过监督微调(SFT)的模型。它能为国际象棋相关的研究和应用提供更精准的语言交互能力,推动国际象棋领域的智能化发展。
此外,我们正在积极开发下一代模型国际象棋GPT - V2。欢迎各方贡献,特别是在国际象棋相关数据集方面。如有相关事宜,请联系 xidong.feng.20@ucl.ac.uk。
✨ 主要特性
- 模型类型:语言模型
- 支持语言:英语
- 许可证:Apache 2.0
- 模型描述:一个具有28亿参数的国际象棋预训练语言模型。
📦 安装指南
此模型推理需要一个显存为8GB的GPU。
import torch
import transformers
from transformers import AutoTokenizer, AutoModelForCausalLM
MIN_TRANSFORMERS_VERSION = '4.25.1'
assert transformers.__version__ >= MIN_TRANSFORMERS_VERSION, f'请将transformers升级到{MIN_TRANSFORMERS_VERSION}或更高版本。'
tokenizer = AutoTokenizer.from_pretrained("Waterhorse/chessgpt-chat-v1")
model = AutoModelForCausalLM.from_pretrained("Waterhorse/chessgpt-chat-v1", torch_dtype=torch.float16)
model = model.to('cuda:0')
prompt = "A friendly, helpful chat between some humans.<|endoftext|>Human 0: 1.e4 c5, what is the name of this opening?<|endoftext|>Human 1:"
inputs = tokenizer(prompt, return_tensors='pt').to(model.device)
input_length = inputs.input_ids.shape[1]
outputs = model.generate(
**inputs, max_new_tokens=128, do_sample=True, temperature=0.7, top_p=0.7, top_k=50, return_dict_in_generate=True,
)
token = outputs.sequences[0, input_length:]
output_str = tokenizer.decode(token)
print(output_str)
📚 详细文档
使用范围
以下是排除的使用场景说明。
直接使用
国际象棋GPT聊天版v1
主要用于大语言模型的研究,特别是那些关于策略学习和语言建模的研究。
非适用场景
国际象棋GPT聊天版v1
是基于国际象棋相关数据训练的语言模型,对于国际象棋领域之外的其他用例可能表现不佳。
偏差、风险和局限性
与任何语言模型一样,国际象棋GPT聊天版v1存在一些固有的局限性,需要谨慎考虑。具体来说,它偶尔可能会生成不相关或不正确的回复,尤其是在处理复杂或模糊的查询时。此外,由于其训练基于在线数据,该模型可能会无意中反映和延续常见的网络刻板印象和偏差。
评估
请参考我们的论文和代码获取基准测试结果。
引用信息
@article{feng2023chessgpt,
title={ChessGPT: Bridging Policy Learning and Language Modeling},
author={Feng, Xidong and Luo, Yicheng and Wang, Ziyan and Tang, Hongrui and Yang, Mengyue and Shao, Kun and Mguni, David and Du, Yali and Wang, Jun},
journal={arXiv preprint arXiv:2306.09200},
year={2023}
}
📄 许可证
本模型使用的是Apache 2.0许可证。