🚀 ChartGPT 模型卡片
ChartGPT 是一个用于从自然语言生成图表的语言模型。它基于 FLAN - T5 - XL 进行微调,能根据用户输入的自然语言描述和数据信息,逐步生成图表的相关设置,如选择列、添加过滤条件、选择图表类型等。
🚀 快速开始
在 GPU 上运行模型
以电影数据集和 “What kinds of movies are the most popular?” 这个自然语言描述为例,模型应给出步骤 1(选择列)的答案。你可以使用以下代码测试是否能成功运行模型。
点击展开
from transformers import (
AutoTokenizer,
AutoModelForSeq2SeqLM,
)
tokenizer = AutoTokenizer.from_pretrained("yuan-tian/chartgpt")
model = AutoModelForSeq2SeqLM.from_pretrained("yuan-tian/chartgpt", device_map="auto")
input_text = "movies <head> Title,Worldwide_Gross,Production_Budget,Release_Year,Content_Rating,Running_Time,Major_Genre,Creative_Type,Rotten_Tomatoes_Rating,IMDB_Rating <type> nominal,quantitative,quantitative,temporal,nominal,quantitative,nominal,nominal,quantitative,quantitative <data> From Dusk Till Dawn,25728961,20000000,1996,R,107,Horror,Fantasy,63,7.1 <line> Broken Arrow,148345997,65000000,1996,R,108,Action,Contemporary Fiction,55,5.8 <line> <utterance> What kinds of movies are the most popular? <ans> <sep> Step 1. Select the columns:"
inputs = tokenizer(input_text, return_tensors="pt", padding=True).to("cuda")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens = True))
✨ 主要特性
- 自然语言生成图表:能够根据自然语言描述生成相应的图表设置。
- 多步骤交互:通过一系列步骤提示,逐步生成图表的详细信息。
📚 详细文档
模型详情
模型描述
此模型用于从自然语言生成图表。更多信息请参考相关论文。
模型输入格式
点击展开
第 x
步的模型输入。具体而言,<...>
用作分隔符。
{表名}
<head> {列名}
<type> {列类型}
<data> {数据行 1} <line> {数据行 2} <line>
<utterance> {自然语言描述}
<ans>
<sep> {步骤 1 提示} {答案 2}
...
<sep> {步骤 x - 1 提示} {答案 x - 1}
<sep> {步骤 x 提示}
模型应输出对应步骤 x
的答案。
步骤 1 - 6 的提示如下:
步骤 1. 选择列:
步骤 2. 添加过滤条件:
步骤 3. 添加聚合操作:
步骤 4. 选择图表类型:
步骤 5. 选择编码方式:
步骤 6. 添加排序:
训练详情
训练数据
该模型在 chartgpt - dataset 上对 FLAN - T5 - XL 进行微调。
训练过程
计划在未来更新预处理和训练过程。
📄 许可证
本模型采用 Apache 2.0 许可证。
📖 引用
BibTeX:
@article{tian2024chartgpt,
title={ChartGPT: Leveraging LLMs to Generate Charts from Abstract Natural Language},
author={Tian, Yuan and Cui, Weiwei and Deng, Dazhen and Yi, Xinjing and Yang, Yurun and Zhang, Haidong and Wu, Yingcai},
journal={IEEE Transactions on Visualization and Computer Graphics},
year={2024},
pages={1-15},
doi={10.1109/TVCG.2024.3368621}
}