🚀 チェスGPTチャットv1
チェスGPTチャットv1は、チェスGPTベースv1をSFT(Supervised Fine-Tuning)で調整したモデルです。このモデルは、チェスに関連する自然言語処理タスクに特化しており、チェスのオープニングや戦略に関する質問に回答することができます。
また、我々は次世代モデルであるChessGPT-V2の開発に積極的に取り組んでいます。チェス関連のデータセットに関する貢献を歓迎します。関連事項については、xidong.feng.20@ucl.ac.ukまでご連絡ください。
🚀 クイックスタート
このモデルを使用するには、8GB以上のメモリを持つGPUが必要です。以下のコード例を参考に、モデルを初期化して推論を行ってください。
import torch
import transformers
from transformers import AutoTokenizer, AutoModelForCausalLM
MIN_TRANSFORMERS_VERSION = '4.25.1'
assert transformers.__version__ >= MIN_TRANSFORMERS_VERSION, f'Please upgrade transformers to version {MIN_TRANSFORMERS_VERSION} or higher.'
tokenizer = AutoTokenizer.from_pretrained("Waterhorse/chessgpt-chat-v1")
model = AutoModelForCausalLM.from_pretrained("Waterhorse/chessgpt-chat-v1", torch_dtype=torch.float16)
model = model.to('cuda:0')
prompt = "A friendly, helpful chat between some humans.<|endoftext|>Human 0: 1.e4 c5, what is the name of this opening?<|endoftext|>Human 1:"
inputs = tokenizer(prompt, return_tensors='pt').to(model.device)
input_length = inputs.input_ids.shape[1]
outputs = model.generate(
**inputs, max_new_tokens=128, do_sample=True, temperature=0.7, top_p=0.7, top_k=50, return_dict_in_generate=True,
)
token = outputs.sequences[0, input_length:]
output_str = tokenizer.decode(token)
print(output_str)
✨ 主な機能
- チェス関連の質問応答: チェスのオープニングや戦略に関する質問に回答することができます。
- 多者間の会話対応: 複数のユーザー間の会話をサポートしています。
📦 インストール
このモデルを使用するには、transformers
ライブラリが必要です。以下のコマンドでインストールしてください。
pip install transformers
📚 ドキュメント
モデル詳細
属性 |
詳情 |
モデルタイプ |
言語モデル |
言語 |
英語 |
ライセンス |
Apache 2.0 |
モデル説明 |
チェスに関する28億パラメータの事前学習言語モデル |
利用方法
直接利用
チェスGPTチャットv1
は、大規模言語モデルの研究、特にポリシー学習や言語モデリングに関する研究に主に使用されます。
適用範囲外の利用
チェスGPTチャットv1
はチェス関連のデータで学習された言語モデルであり、チェスドメイン以外の他のユースケースでは性能が低下する可能性があります。
バイアス、リスク、制限事項
他の言語モデルと同様に、チェスGPTチャットv1には固有の制限があり、慎重な検討が必要です。具体的には、複雑または曖昧なクエリを解釈するタスクを行う際に、関係のないまたは誤った応答を生成することがあります。また、オンラインデータを基に学習されているため、一般的なオンラインのステレオタイプやバイアスを反映し、永続化する可能性があります。
評価
ベンチマーク結果については、我々の論文とコードを参照してください。
引用情報
@article{feng2023chessgpt,
title={ChessGPT: Bridging Policy Learning and Language Modeling},
author={Feng, Xidong and Luo, Yicheng and Wang, Ziyan and Tang, Hongrui and Yang, Mengyue and Shao, Kun and Mguni, David and Du, Yali and Wang, Jun},
journal={arXiv preprint arXiv:2306.09200},
year={2023}
}
📄 ライセンス
このモデルはApache 2.0ライセンスの下で提供されています。