Summllama3.1 8B
SummLlama3.1-8B是基于Llama3.1-8B-Instruct初始化的文本摘要模型,通过大规模摘要反馈的直接偏好优化(DPO)训练,在忠实性、完整性和简洁性方面表现优异。
下载量 116
发布时间 : 10/15/2024
模型简介
SummLlama3.1-8B是一款专注于文本摘要任务的模型,适用于多个领域(新闻、生活方式、报告、医疗、日常生活、访谈、会议)的文本摘要生成。
模型特点
多领域适用
支持七个不同领域的文本摘要,包括新闻、生活方式、报告、医疗等非对话领域,以及日常生活、访谈、会议等对话领域。
高质量摘要
通过直接偏好优化(DPO)训练,在忠实性、完整性和简洁性方面表现优异,生成更符合人类偏好的摘要。
大规模反馈训练
基于超过10万条摘要反馈进行优化,涵盖从短文到长篇文本的各种输入形式。
模型能力
文本摘要生成
多领域文本处理
对话内容摘要
使用案例
新闻摘要
新闻文章摘要
将长篇新闻文章自动生成简洁摘要,保留关键信息。
在忠实性和完整性方面表现优异,平均分达0.740。
会议记录摘要
会议内容摘要
将冗长的会议记录自动生成简明摘要,突出关键讨论点和决策。
在对话领域摘要中表现突出,能准确捕捉核心讨论内容。
医疗报告摘要
医疗文档摘要
将复杂的医疗报告自动生成易于理解的摘要。
在医疗领域表现良好,能准确保留关键医疗信息。
🚀 SummLlama3.1-8B
你是否正在寻找一个能够跨多个领域生成更符合人类偏好摘要的摘要生成器?我们的 SummLlama3.1-8B 可能正是你所需要的!SummLlama3.1-8B 基于 Llama3.1-8B-Instruct 进行初始化,并使用基于大规模(超过 10 万条)摘要反馈的直接偏好优化(DPO)进行了额外训练。
✨ 主要特性
- 多领域适用:反馈涵盖了从短文本到长文本的各种输入文档,包括对话和非对话格式,并且跨越了七个不同的领域,其中四个非对话领域为新闻、生活方式、报告、医疗;三个对话领域为日常生活、访谈、会议。
- 性能卓越:该模型在忠实性、完整性和简洁性方面表现出色,这也是人类判断一个优秀摘要生成器的三个重要方面。
- 忠实性:摘要生成器不会篡改输入文本中的信息,也不会添加任何无法从输入文本直接推断出的信息。
- 完整性:摘要生成器确保输出摘要包含输入文本中的所有关键信息。
- 简洁性:摘要生成器避免在输出中包含关键信息之外的信息,保持摘要简洁明了。
📚 详细文档
自动化评估结果
配置 | 忠实性 | 完整性 | 简洁性 | 平均分 |
---|---|---|---|---|
Llama3-8B-Instruct | 0.864 | 0.583 | 0.450 | 0.632 |
Llama3-70B-Instruct | 0.931 | 0.596 | 0.487 | 0.671 |
Llama3.1-8B-Instruct | 0.875 | 0.596 | 0.395 | 0.622 |
GPT-4o | 0.940 | 0.657 | 0.437 | 0.678 |
SummLlama3-8B | 0.931 | 0.614 | 0.659 | 0.735 |
SummLlama3-70B | 0.950 | 0.632 | 0.754 | 0.779 |
SummLlama3.1-8B | 0.924 | 0.635 | 0.661 | 0.740 |
请参考我们的论文,了解如何在文本摘要的背景下利用大语言模型生成的反馈。
相关模型链接
- SummLlama3-70B
- https://huggingface.co/DISLab/SummLlama3-8B
- https://huggingface.co/DISLab/SummLlama3-70B
- SummLlama3.1 系列
- https://huggingface.co/DISLab/SummLlama3.1-8B
- https://huggingface.co/DISLab/SummLlama3.1-70B
- SummLlama3.2 系列
- https://huggingface.co/DISLab/SummLlama3.2-3B
💻 使用示例
推荐的文本摘要提示
我们建议使用以下提示来获取摘要,因为我们是使用此提示对模型进行训练的。
def format_chat_template(document):
instruction = "Please summarize the input documnet."
row_json = [{"role": "user", "content": f"Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n### Instruction:\n{instruction}\n\n### Input:\n{document}\n\n### Response:\n"}]
return tokenizer.apply_chat_template(row_json, tokenize=False)
评估结果
人工评估
配置 | 忠实性 | 完整性 | 简洁性 | 平均分 |
---|---|---|---|---|
Llama3-8B-Instruct | 0.902 | 0.636 | 0.784 | 0.774 |
Llama3-70B-Instruct | 0.953 | 0.659 | 0.792 | 0.801 |
SummLlama3-8B | 0.980 | 0.697 | 0.959 | 0.879 |
使用 FineSurE 进行的自动化评估
配置 | 忠实性 | 完整性 | 简洁性 | 平均分 |
---|---|---|---|---|
Llama3-8B-Instruct | 0.864 | 0.583 | 0.450 | 0.632 |
Llama3-70B-Instruct | 0.931 | 0.596 | 0.487 | 0.671 |
SummLlama3-8B | 0.931 | 0.614 | 0.659 | 0.735 |
SummLlama3-70B | 0.950 | 0.632 | 0.754 | 0.779 |
示例
以下是一个示例,展示了 SummLlama3-8B 相对于 Llama3-8/70B-Instruct 在摘要生成方面的改进:
说话者 | 对话内容 |
---|---|
Person 1 | Hey, Paul, you're still having Thanksgiving dinner at my house on Thursday, right? |
Person 2 | Yeah, thanks again for the invitation. I was worried I'd have to spend it alone after my parents announced they'd be in Finland. |
Person 1 | I think it's strange that you're not going with them. Is it because of the cold weather in Northern Europe? |
Person 2 | Not exactly. I have a lot of work to do next week. |
Person 1 | Well, I'm glad you won't be alone on a holiday. It'll be great to have you celebrate with us. The more the merrier! |
Person 2 | Exactly, how many people will be there? |
Person 1 | Let's see, my parents, my grandpa, my sister, my brother-in-law, my niece and my two cousins, plus us. So, ten people altogether. |
Person 2 | Should I bring anything? |
Person 1 | Nope, we've got it covered. |
Person 2 | Come on, I hate to show up empty-handed. You are being so generous to have me. I know! I'll bring pie. I'll make a great pumpkin pie. |
Person 1 | Sounds delicious, but my sister has already volunteered for dessert. Look, don't worry about it. There will be tons of food. Turkey, stuffing, green beans, sweet potatoes. |
Person 2 | Wow, I'm getting hungry just thinking about it. How about this, I'll bring a nice bottle of wine. You can never have too much of that. |
Person 1 | Well, isn't that the truth? Sounds good to me. |
模型 | 摘要 |
---|---|
Llama3-8B-Instruct | Person1 invites Person2 to join them for Thanksgiving dinner at their house. Person2 accepts the invitation, citing that they were worried they would have to spend the holiday alone after their parents announced they would be in Finland. Person1 reassures Person2 that they are welcome and that the more the merrier. Person2 asks how many people will be attending and is told that there will be 10 people, including their family and cousins. Person2 offers to bring a gift, but Person1 declines, saying that they have everything covered. Person2 persists and offers to bring a bottle of wine or a pie, but Person1 suggests that their sister has already volunteered to bring dessert. |
Llama3-70B-Instruct | Person 1 invites Person 2 to their house for Thanksgiving dinner on Thursday. Person 2 is grateful for the invitation and explains they can't go to Finland with their parents due to work commitments. Person 1 is happy to have them celebrate with their family, which will consist of 10 people. When Person 2 offers to bring something, Person 1 declines, but eventually agrees to let them bring a bottle of wine. |
SummLlama3-8B | The conversation is about Thanksgiving dinner arrangements, with Person2 (Paul) confirming his attendance at Person1's (host's) house on Thursday, discussing what to bring and what's already been taken care of, and finalizing the offer to bring wine instead of pie since someone else is handling desserts. |
SummLlama3-8B 的摘要可以被认为是更符合人类偏好的摘要,原因如下:
- 核心聚焦:摘要准确地抓住了对话的主要主题,即感恩节晚餐的安排。它突出了两人如何确认计划、讨论带什么东西以及最终确定 Person2 带酒而不是派的决定,保持了核心上下文。
- 关键事实包含:摘要涵盖了对话中的重要细节,包括 Person2 最初提出带甜点(南瓜派)以及由于另一位家庭成员负责甜点而改为带酒的转变。其他摘要往往会忽略或简化这一过程,而 SummLlama3-8B 完整地捕捉了对话中的关键事件。
- 清晰简洁:摘要以直接、简洁的方式进行结构组织,有效地总结了对话,没有包含不必要的细节。它清晰地呈现了讨论的流程和结果,使读者易于理解。事件的逻辑顺序得到了保持,确保了叙述的流畅性。
- 角色准确描绘:摘要明确将 Person1 识别为主人,将 Paul(Person2)识别为客人,这有助于澄清他们之间的关系和对话的性质。与其他摘要相比,SummLlama3-8B 对这些角色的区分更加明确。
Bart Large Cnn
MIT
基于英语语料预训练的BART模型,专门针对CNN每日邮报数据集进行微调,适用于文本摘要任务
文本生成 英语
B
facebook
3.8M
1,364
Parrot Paraphraser On T5
Parrot是一个基于T5的释义框架,专为加速训练自然语言理解(NLU)模型而设计,通过生成高质量释义实现数据增强。
文本生成
Transformers

P
prithivida
910.07k
152
Distilbart Cnn 12 6
Apache-2.0
DistilBART是BART模型的蒸馏版本,专门针对文本摘要任务进行了优化,在保持较高性能的同时显著提升了推理速度。
文本生成 英语
D
sshleifer
783.96k
278
T5 Base Summarization Claim Extractor
基于T5架构的模型,专门用于从摘要文本中提取原子声明,是摘要事实性评估流程的关键组件。
文本生成
Transformers 英语

T
Babelscape
666.36k
9
Unieval Sum
UniEval是一个统一的多维评估器,用于自然语言生成任务的自动评估,支持多个可解释维度的评估。
文本生成
Transformers

U
MingZhong
318.08k
3
Pegasus Paraphrase
Apache-2.0
基于PEGASUS架构微调的文本复述模型,能够生成语义相同但表达不同的句子。
文本生成
Transformers 英语

P
tuner007
209.03k
185
T5 Base Korean Summarization
这是一个基于T5架构的韩语文本摘要模型,专为韩语文本摘要任务设计,通过微调paust/pko-t5-base模型在多个韩语数据集上训练而成。
文本生成
Transformers 韩语

T
eenzeenee
148.32k
25
Pegasus Xsum
PEGASUS是一种基于Transformer的预训练模型,专门用于抽象文本摘要任务。
文本生成 英语
P
google
144.72k
198
Bart Large Cnn Samsum
MIT
基于BART-large架构的对话摘要模型,专为SAMSum语料库微调,适用于生成对话摘要。
文本生成
Transformers 英语

B
philschmid
141.28k
258
Kobart Summarization
MIT
基于KoBART架构的韩语文本摘要模型,能够生成韩语新闻文章的简洁摘要。
文本生成
Transformers 韩语

K
gogamza
119.18k
12
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98