🚀 Lamini-Prompt-Enchance-Long
Lamini-Prompt-Enchance-Long 是基于 MBZUAI/LaMini-Flan-T5-248M 微调的模型,可用于增强提示描述,在评估集上有较好的表现。
🚀 快速开始
以下是使用该模型的示例代码:
from transformers import pipeline
enhancer = pipeline("summarization", model="gokaygokay/Lamini-Prompt-Enchance-Long", device=0)
prompt = "A blue-tinted bedroom scene, surreal and serene, with a mysterious reflected interior."
prefix = "Enhance the description: "
res = enhancer(prefix + prompt)
print(res[0]['summary_text'])
✨ 主要特性
- 该模型是 MBZUAI/LaMini-Flan-T5-248M 在未知数据集上的微调版本。
- 在评估集上取得了以下结果:
- 损失值(Loss):2.1624
- Rouge1:20.2443
- Rouge2:9.3642
- Rougel:17.2484
- Rougelsum:19.0703
- 生成长度(Gen Len):19.0
📦 安装指南
文档未提供具体安装步骤,可参考 transformers
库的安装方式,使用以下命令安装:
pip install transformers
💻 使用示例
基础用法
from transformers import pipeline
enhancer = pipeline("summarization", model="gokaygokay/Lamini-Prompt-Enchance-Long", device=0)
prompt = "A blue-tinted bedroom scene, surreal and serene, with a mysterious reflected interior."
prefix = "Enhance the description: "
res = enhancer(prefix + prompt)
print(res[0]['summary_text'])
🔧 技术细节
训练超参数
训练过程中使用了以下超参数:
- 学习率(learning_rate):5e-05
- 训练批次大小(train_batch_size):8
- 评估批次大小(eval_batch_size):8
- 随机种子(seed):42
- 优化器(optimizer):Adam,β1=0.9,β2=0.999,ε=1e-08
- 学习率调度器类型(lr_scheduler_type):线性
- 训练轮数(num_epochs):5
训练结果
训练损失(Training Loss) |
轮数(Epoch) |
步数(Step) |
验证损失(Validation Loss) |
Rouge1 |
Rouge2 |
Rougel |
Rougelsum |
生成长度(Gen Len) |
2.4435 |
1.0 |
2014 |
2.2723 |
20.0108 |
9.2736 |
17.0569 |
18.8171 |
19.0 |
2.341 |
2.0 |
4028 |
2.2120 |
20.4422 |
9.4473 |
17.4347 |
19.2234 |
19.0 |
2.2948 |
3.0 |
6042 |
2.1820 |
20.5645 |
9.5426 |
17.5419 |
19.3714 |
19.0 |
2.2598 |
4.0 |
8056 |
2.1668 |
20.2354 |
9.3639 |
17.2379 |
19.0625 |
19.0 |
2.2431 |
5.0 |
10070 |
2.1624 |
20.2443 |
9.3642 |
17.2484 |
19.0703 |
19.0 |
框架版本
- Transformers:4.42.3
- Pytorch:2.3.0+cu121
- Datasets:2.20.0
- Tokenizers:0.19.1
📄 许可证
本模型采用 CC BY-NC 4.0 许可证。