🚀 distilgpt2-tiny-conversational
このモデルは、distilgpt2 を Wizard of Wikipedia の解析バージョンでファインチューニングしたものです。Persona alpha/beta フレームワークは、ai-msgbot と共に使用するように設計されています。評価セットでは以下の結果を達成しています。
🚀 クイックスタート
このモデルは会話用の基本的な対話モデルで、チャットボットとして使用できます。ここで簡単なデモを試すことができます。
✨ 主な機能
- テキスト生成、チャットボット、対話などのタスクに対応。
- 2人のエンティティ
person alpha
と person beta
間の会話を生成できる。
📦 インストール
インストールに関する具体的な手順は提供されていません。
💻 使用例
基本的な使用法
以下は、モデルを使用した推論のパラメータ設定例です。
inference = {
"parameters": {
"min_length": 2,
"max_length": 64,
"length_penalty": 0.7,
"no_repeat_ngram_size": 2,
"do_sample": True,
"top_p": 0.95,
"top_k": 20,
"temperature": 0.3,
"repetition_penalty": 3.5
}
}
高度な使用法
以下は、ウィジェットで提供されるいくつかの入力例です。
widget = [
{
"text": "I know you're tired, but can we go for another walk this evening?\nperson beta:\n\n",
"example_title": "walk"
},
{
"text": "Have you done anything exciting lately?\nperson beta:\n\n",
"example_title": "activities"
},
]
📚 ドキュメント
想定される用途と制限
- このモデルは、ai-msgbot との統合を目的として設計されています。
- モデルは
person alpha
と person beta
という2つのエンティティ間の完全な会話を生成します。これらのエンティティ名は、1つの応答が終了し、別の応答が始まるタイミングを抽出するためのカスタム <bos>
トークンとして機能します。
学習と評価データ
学習手順
- deepspeed + huggingface trainer を使用して学習しています。サンプルノートブックは ai-msgbot にあります。
学習ハイパーパラメータ
学習時には以下のハイパーパラメータが使用されました。
パラメータ |
値 |
learning_rate |
2e-05 |
train_batch_size |
32 |
eval_batch_size |
32 |
seed |
42 |
distributed_type |
multi-GPU |
gradient_accumulation_steps |
4 |
total_train_batch_size |
128 |
optimizer |
Adam with betas=(0.9,0.999) and epsilon=1e-08 |
lr_scheduler_type |
cosine |
lr_scheduler_warmup_ratio |
0.05 |
num_epochs |
30 |
学習結果
学習損失 |
エポック |
ステップ |
検証損失 |
No log |
1.0 |
418 |
2.7793 |
2.9952 |
2.0 |
836 |
2.6914 |
2.7684 |
3.0 |
1254 |
2.6348 |
2.685 |
4.0 |
1672 |
2.5938 |
2.6243 |
5.0 |
2090 |
2.5625 |
2.5816 |
6.0 |
2508 |
2.5332 |
2.5816 |
7.0 |
2926 |
2.5098 |
2.545 |
8.0 |
3344 |
2.4902 |
2.5083 |
9.0 |
3762 |
2.4707 |
2.4793 |
10.0 |
4180 |
2.4551 |
2.4531 |
11.0 |
4598 |
2.4395 |
2.4269 |
12.0 |
5016 |
2.4238 |
2.4269 |
13.0 |
5434 |
2.4102 |
2.4051 |
14.0 |
5852 |
2.3945 |
2.3777 |
15.0 |
6270 |
2.3848 |
2.3603 |
16.0 |
6688 |
2.3711 |
2.3394 |
17.0 |
7106 |
2.3613 |
2.3206 |
18.0 |
7524 |
2.3516 |
2.3206 |
19.0 |
7942 |
2.3398 |
2.3026 |
20.0 |
8360 |
2.3301 |
2.2823 |
21.0 |
8778 |
2.3203 |
2.2669 |
22.0 |
9196 |
2.3105 |
2.2493 |
23.0 |
9614 |
2.3027 |
2.2334 |
24.0 |
10032 |
2.2930 |
2.2334 |
25.0 |
10450 |
2.2852 |
2.2194 |
26.0 |
10868 |
2.2754 |
2.2014 |
27.0 |
11286 |
2.2695 |
2.1868 |
28.0 |
11704 |
2.2598 |
2.171 |
29.0 |
12122 |
2.2539 |
2.1597 |
30.0 |
12540 |
2.2461 |
フレームワークバージョン
- Transformers 4.16.1
- Pytorch 1.10.0+cu111
- Tokenizers 0.11.0
📄 ライセンス
このモデルは Apache-2.0 ライセンスの下で提供されています。