🚀 SummLlama3.2-3B
你是否正在寻找一个能够在多个领域生成更符合人类偏好摘要的摘要生成器?我们的 SummLlama3.2-3B 或许正是你所需要的!SummLlama3.2-3B 基于 Llama3.2-3B-Instruct 进行初始化,并使用基于大规模(超过 10 万条)摘要反馈的直接偏好优化(DPO)方法进行了额外训练。
🚀 快速开始
推荐的文本摘要提示
我们建议使用以下提示来获取摘要,因为我们是使用此提示来训练模型的。
def format_chat_template(document):
instruction = "Please summarize the input document."
row_json = [{"role": "user", "content": f"Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n### Instruction:\n{instruction}\n\n### Input:\n{document}\n\n### Response:\n"}]
return tokenizer.apply_chat_template(row_json, tokenize=False)
✨ 主要特性
模型基础信息
属性 |
详情 |
库名称 |
transformers |
基础模型 |
meta-llama/Llama-3.2-3B-Instruct |
任务类型 |
文本摘要 |
反馈数据范围
反馈涵盖了从短文本到长文本的各种输入文档,包括对话和非对话格式,并跨越七个不同领域:
- 四个非对话领域:新闻、生活方式、报告、医疗
- 三个对话领域:日常生活、访谈、会议
自动化评估结果
配置 |
忠实度 |
完整性 |
简洁度 |
平均分 |
Llama3.2-3B-Instruct |
0.814 |
0.580 |
0.445 |
0.613 |
SummLlama3.2-3B |
0.867 |
0.598 |
0.686 |
0.717 |
模型优势
该模型在忠实度、完整性和简洁度方面表现出色,这是人类评判一个优秀摘要生成器的三个重要方面:
- 忠实度:摘要生成器不会篡改输入文本中的信息,也不会添加任何无法从输入文本直接推断出的信息。
- 完整性:摘要生成器确保输出摘要包含输入文本中的所有关键信息。
- 简洁度:摘要生成器避免在输出中包含关键信息以外的信息,保持摘要简洁明了。
综合评估结果
基于我们的综合评估,包括人工和自动化评估摘要质量,SummLlama3 相较于原始 Llama3 系列有了显著改进。
人工评估
配置 |
忠实度 |
完整性 |
简洁度 |
平均分 |
Llama3-8B-Instruct |
0.902 |
0.636 |
0.784 |
0.774 |
Llama3-70B-Instruct |
0.953 |
0.659 |
0.792 |
0.801 |
SummLlama3-8B |
0.980 |
0.697 |
0.959 |
0.879 |
配置 |
忠实度 |
完整性 |
简洁度 |
平均分 |
Llama3-8B-Instruct |
0.864 |
0.583 |
0.450 |
0.632 |
Llama3-70B-Instruct |
0.931 |
0.596 |
0.487 |
0.671 |
SummLlama3-8B |
0.931 |
0.614 |
0.659 |
0.735 |
SummLlama3-70B |
0.950 |
0.632 |
0.754 |
0.779 |
示例
以下是一个示例,展示了 SummLlama3-8B 相较于 Llama3-8/70B-Instruct 在摘要生成上的改进:
说话者 |
对话内容 |
人物 1 |
嘿,保罗,你周四还是来我家吃感恩节晚餐,对吧? |
人物 2 |
是的,再次感谢你的邀请。我父母说他们要去芬兰后,我还担心要一个人过这个节呢。 |
人物 1 |
我觉得你不跟他们去挺奇怪的。是因为北欧天气冷吗? |
人物 2 |
不完全是。我下周有很多工作要做。 |
人物 1 |
嗯,我很高兴你过节不会孤单。有你和我们一起庆祝真好。人越多越热闹! |
人物 2 |
没错,会有多少人呢? |
人物 1 |
让我想想,我父母、我爷爷、我姐姐、我姐夫、我侄女和我的两个表亲,再加上我们。一共十个人。 |
人物 2 |
我要带点什么吗? |
人物 1 |
不用,我们都准备好了。 |
人物 2 |
别这样,我讨厌空手去。你这么慷慨地邀请我。有了!我带个派。我会做一个很棒的南瓜派。 |
人物 1 |
听起来很美味,但我姐姐已经主动提出负责甜点了。听着,别担心。会有很多食物的。火鸡、填料、青豆、红薯。 |
人物 2 |
哇,光想想我就饿了。这样吧,我带一瓶好酒。酒永远不嫌多。 |
人物 1 |
嗯,这倒是真的。我觉得挺好的。 |
模型 |
摘要 |
Llama3-8B-Instruct |
人物 1 邀请人物 2 去他们家吃感恩节晚餐。人物 2 接受了邀请,称父母宣布要去芬兰后,他担心要一个人过节。人物 1 向人物 2 保证他们很受欢迎,人越多越热闹。人物 2 询问有多少人参加,得知包括家人和表亲在内共有 10 人。人物 2 提出带礼物,但人物 1 拒绝了,称一切都准备好了。人物 2 坚持要带,提出带一瓶酒或一个派,但人物 1 表示姐姐已主动提出带甜点。 |
Llama3-70B-Instruct |
人物 1 邀请人物 2 周四去他们家吃感恩节晚餐。人物 2 感谢邀请,并解释由于工作原因不能和父母去芬兰。人物 1 很高兴人物 2 能和他们家人一起庆祝,届时将有 10 人参加。当人物 2 提出带点东西时,人物 1 拒绝了,但最终同意让他带一瓶酒。 |
SummLlama3-8B |
对话围绕感恩节晚餐安排展开,人物 2(保罗)确认周四将参加人物 1(主人)家的晚餐,讨论了带什么以及哪些已经安排好,并最终确定人物 2 带酒而不是派,因为其他人负责甜点。 |
SummLlama3-8B 的摘要可以被认为是更符合人类偏好的摘要,原因如下:
- 核心聚焦:摘要准确抓住了对话的主题,即感恩节晚餐的安排。它突出了两人如何确认计划、讨论带什么以及最终确定人物 2 带酒而不是派的决定,保持了核心上下文。
- 关键事实包含:摘要涵盖了对话中的重要细节,包括人物 2 最初提出带甜点(南瓜派)以及因另一位家庭成员负责甜点而改为带酒的转变。其他摘要往往忽略或简化了这一过程,而 SummLlama3-8B 完整地捕捉了对话中的关键事件。
- 清晰简洁:摘要结构简洁明了,有效地总结了对话,没有不必要的细节。它清晰地呈现了讨论的流程和结果,使读者易于理解。事件的逻辑顺序得以保持,确保了叙述的流畅性。
- 角色准确描绘:摘要明确将人物 1 确定为主人,人物 2(保罗)确定为客人,有助于澄清他们的关系和对话的性质。与其他摘要相比,SummLlama3-8B 对角色的区分更加明确。
相关链接
- SummLlama3-70B:
- https://huggingface.co/DISLab/SummLlama3-8B
- https://huggingface.co/DISLab/SummLlama3-70B
- SummLlama3.1 系列:
- https://huggingface.co/DISLab/SummLlama3.1-8B
- https://huggingface.co/DISLab/SummLlama3.1-70B
- SummLlama3.2 系列:
- https://huggingface.co/DISLab/SummLlama3.2-3B
参考论文
请参考 我们的论文 以了解如何在文本摘要的背景下利用大语言模型生成的反馈。