Summllama3.1 8B
SummLlama3.1-8B是基於Llama3.1-8B-Instruct初始化的文本摘要模型,通過大規模摘要反饋的直接偏好優化(DPO)訓練,在忠實性、完整性和簡潔性方面表現優異。
下載量 116
發布時間 : 10/15/2024
模型概述
SummLlama3.1-8B是一款專注於文本摘要任務的模型,適用於多個領域(新聞、生活方式、報告、醫療、日常生活、訪談、會議)的文本摘要生成。
模型特點
多領域適用
支持七個不同領域的文本摘要,包括新聞、生活方式、報告、醫療等非對話領域,以及日常生活、訪談、會議等對話領域。
高質量摘要
通過直接偏好優化(DPO)訓練,在忠實性、完整性和簡潔性方面表現優異,生成更符合人類偏好的摘要。
大規模反饋訓練
基於超過10萬條摘要反饋進行優化,涵蓋從短文到長篇文本的各種輸入形式。
模型能力
文本摘要生成
多領域文本處理
對話內容摘要
使用案例
新聞摘要
新聞文章摘要
將長篇新聞文章自動生成簡潔摘要,保留關鍵信息。
在忠實性和完整性方面表現優異,平均分達0.740。
會議記錄摘要
會議內容摘要
將冗長的會議記錄自動生成簡明摘要,突出關鍵討論點和決策。
在對話領域摘要中表現突出,能準確捕捉核心討論內容。
醫療報告摘要
醫療文檔摘要
將複雜的醫療報告自動生成易於理解的摘要。
在醫療領域表現良好,能準確保留關鍵醫療信息。
🚀 SummLlama3.1-8B
你是否正在尋找一個能夠跨多個領域生成更符合人類偏好摘要的摘要生成器?我們的 SummLlama3.1-8B 可能正是你所需要的!SummLlama3.1-8B 基於 Llama3.1-8B-Instruct 進行初始化,並使用基於大規模(超過 10 萬條)摘要反饋的直接偏好優化(DPO)進行了額外訓練。
✨ 主要特性
- 多領域適用:反饋涵蓋了從短文本到長文本的各種輸入文檔,包括對話和非對話格式,並且跨越了七個不同的領域,其中四個非對話領域為新聞、生活方式、報告、醫療;三個對話領域為日常生活、訪談、會議。
- 性能卓越:該模型在忠實性、完整性和簡潔性方面表現出色,這也是人類判斷一個優秀摘要生成器的三個重要方面。
- 忠實性:摘要生成器不會篡改輸入文本中的信息,也不會添加任何無法從輸入文本直接推斷出的信息。
- 完整性:摘要生成器確保輸出摘要包含輸入文本中的所有關鍵信息。
- 簡潔性:摘要生成器避免在輸出中包含關鍵信息之外的信息,保持摘要簡潔明瞭。
📚 詳細文檔
自動化評估結果
配置 | 忠實性 | 完整性 | 簡潔性 | 平均分 |
---|---|---|---|---|
Llama3-8B-Instruct | 0.864 | 0.583 | 0.450 | 0.632 |
Llama3-70B-Instruct | 0.931 | 0.596 | 0.487 | 0.671 |
Llama3.1-8B-Instruct | 0.875 | 0.596 | 0.395 | 0.622 |
GPT-4o | 0.940 | 0.657 | 0.437 | 0.678 |
SummLlama3-8B | 0.931 | 0.614 | 0.659 | 0.735 |
SummLlama3-70B | 0.950 | 0.632 | 0.754 | 0.779 |
SummLlama3.1-8B | 0.924 | 0.635 | 0.661 | 0.740 |
請參考我們的論文,瞭解如何在文本摘要的背景下利用大語言模型生成的反饋。
相關模型鏈接
- SummLlama3-70B
- https://huggingface.co/DISLab/SummLlama3-8B
- https://huggingface.co/DISLab/SummLlama3-70B
- SummLlama3.1 系列
- https://huggingface.co/DISLab/SummLlama3.1-8B
- https://huggingface.co/DISLab/SummLlama3.1-70B
- SummLlama3.2 系列
- https://huggingface.co/DISLab/SummLlama3.2-3B
💻 使用示例
推薦的文本摘要提示
我們建議使用以下提示來獲取摘要,因為我們是使用此提示對模型進行訓練的。
def format_chat_template(document):
instruction = "Please summarize the input documnet."
row_json = [{"role": "user", "content": f"Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n### Instruction:\n{instruction}\n\n### Input:\n{document}\n\n### Response:\n"}]
return tokenizer.apply_chat_template(row_json, tokenize=False)
評估結果
人工評估
配置 | 忠實性 | 完整性 | 簡潔性 | 平均分 |
---|---|---|---|---|
Llama3-8B-Instruct | 0.902 | 0.636 | 0.784 | 0.774 |
Llama3-70B-Instruct | 0.953 | 0.659 | 0.792 | 0.801 |
SummLlama3-8B | 0.980 | 0.697 | 0.959 | 0.879 |
使用 FineSurE 進行的自動化評估
配置 | 忠實性 | 完整性 | 簡潔性 | 平均分 |
---|---|---|---|---|
Llama3-8B-Instruct | 0.864 | 0.583 | 0.450 | 0.632 |
Llama3-70B-Instruct | 0.931 | 0.596 | 0.487 | 0.671 |
SummLlama3-8B | 0.931 | 0.614 | 0.659 | 0.735 |
SummLlama3-70B | 0.950 | 0.632 | 0.754 | 0.779 |
示例
以下是一個示例,展示了 SummLlama3-8B 相對於 Llama3-8/70B-Instruct 在摘要生成方面的改進:
說話者 | 對話內容 |
---|---|
Person 1 | Hey, Paul, you're still having Thanksgiving dinner at my house on Thursday, right? |
Person 2 | Yeah, thanks again for the invitation. I was worried I'd have to spend it alone after my parents announced they'd be in Finland. |
Person 1 | I think it's strange that you're not going with them. Is it because of the cold weather in Northern Europe? |
Person 2 | Not exactly. I have a lot of work to do next week. |
Person 1 | Well, I'm glad you won't be alone on a holiday. It'll be great to have you celebrate with us. The more the merrier! |
Person 2 | Exactly, how many people will be there? |
Person 1 | Let's see, my parents, my grandpa, my sister, my brother-in-law, my niece and my two cousins, plus us. So, ten people altogether. |
Person 2 | Should I bring anything? |
Person 1 | Nope, we've got it covered. |
Person 2 | Come on, I hate to show up empty-handed. You are being so generous to have me. I know! I'll bring pie. I'll make a great pumpkin pie. |
Person 1 | Sounds delicious, but my sister has already volunteered for dessert. Look, don't worry about it. There will be tons of food. Turkey, stuffing, green beans, sweet potatoes. |
Person 2 | Wow, I'm getting hungry just thinking about it. How about this, I'll bring a nice bottle of wine. You can never have too much of that. |
Person 1 | Well, isn't that the truth? Sounds good to me. |
模型 | 摘要 |
---|---|
Llama3-8B-Instruct | Person1 invites Person2 to join them for Thanksgiving dinner at their house. Person2 accepts the invitation, citing that they were worried they would have to spend the holiday alone after their parents announced they would be in Finland. Person1 reassures Person2 that they are welcome and that the more the merrier. Person2 asks how many people will be attending and is told that there will be 10 people, including their family and cousins. Person2 offers to bring a gift, but Person1 declines, saying that they have everything covered. Person2 persists and offers to bring a bottle of wine or a pie, but Person1 suggests that their sister has already volunteered to bring dessert. |
Llama3-70B-Instruct | Person 1 invites Person 2 to their house for Thanksgiving dinner on Thursday. Person 2 is grateful for the invitation and explains they can't go to Finland with their parents due to work commitments. Person 1 is happy to have them celebrate with their family, which will consist of 10 people. When Person 2 offers to bring something, Person 1 declines, but eventually agrees to let them bring a bottle of wine. |
SummLlama3-8B | The conversation is about Thanksgiving dinner arrangements, with Person2 (Paul) confirming his attendance at Person1's (host's) house on Thursday, discussing what to bring and what's already been taken care of, and finalizing the offer to bring wine instead of pie since someone else is handling desserts. |
SummLlama3-8B 的摘要可以被認為是更符合人類偏好的摘要,原因如下:
- 核心聚焦:摘要準確地抓住了對話的主要主題,即感恩節晚餐的安排。它突出了兩人如何確認計劃、討論帶什麼東西以及最終確定 Person2 帶酒而不是派的決定,保持了核心上下文。
- 關鍵事實包含:摘要涵蓋了對話中的重要細節,包括 Person2 最初提出帶甜點(南瓜派)以及由於另一位家庭成員負責甜點而改為帶酒的轉變。其他摘要往往會忽略或簡化這一過程,而 SummLlama3-8B 完整地捕捉了對話中的關鍵事件。
- 清晰簡潔:摘要以直接、簡潔的方式進行結構組織,有效地總結了對話,沒有包含不必要的細節。它清晰地呈現了討論的流程和結果,使讀者易於理解。事件的邏輯順序得到了保持,確保了敘述的流暢性。
- 角色準確描繪:摘要明確將 Person1 識別為主人,將 Paul(Person2)識別為客人,這有助於澄清他們之間的關係和對話的性質。與其他摘要相比,SummLlama3-8B 對這些角色的區分更加明確。
Bart Large Cnn
MIT
基於英語語料預訓練的BART模型,專門針對CNN每日郵報數據集進行微調,適用於文本摘要任務
文本生成 英語
B
facebook
3.8M
1,364
Parrot Paraphraser On T5
Parrot是一個基於T5的釋義框架,專為加速訓練自然語言理解(NLU)模型而設計,通過生成高質量釋義實現數據增強。
文本生成
Transformers

P
prithivida
910.07k
152
Distilbart Cnn 12 6
Apache-2.0
DistilBART是BART模型的蒸餾版本,專門針對文本摘要任務進行了優化,在保持較高性能的同時顯著提升了推理速度。
文本生成 英語
D
sshleifer
783.96k
278
T5 Base Summarization Claim Extractor
基於T5架構的模型,專門用於從摘要文本中提取原子聲明,是摘要事實性評估流程的關鍵組件。
文本生成
Transformers 英語

T
Babelscape
666.36k
9
Unieval Sum
UniEval是一個統一的多維評估器,用於自然語言生成任務的自動評估,支持多個可解釋維度的評估。
文本生成
Transformers

U
MingZhong
318.08k
3
Pegasus Paraphrase
Apache-2.0
基於PEGASUS架構微調的文本複述模型,能夠生成語義相同但表達不同的句子。
文本生成
Transformers 英語

P
tuner007
209.03k
185
T5 Base Korean Summarization
這是一個基於T5架構的韓語文本摘要模型,專為韓語文本摘要任務設計,通過微調paust/pko-t5-base模型在多個韓語數據集上訓練而成。
文本生成
Transformers 韓語

T
eenzeenee
148.32k
25
Pegasus Xsum
PEGASUS是一種基於Transformer的預訓練模型,專門用於抽象文本摘要任務。
文本生成 英語
P
google
144.72k
198
Bart Large Cnn Samsum
MIT
基於BART-large架構的對話摘要模型,專為SAMSum語料庫微調,適用於生成對話摘要。
文本生成
Transformers 英語

B
philschmid
141.28k
258
Kobart Summarization
MIT
基於KoBART架構的韓語文本摘要模型,能夠生成韓語新聞文章的簡潔摘要。
文本生成
Transformers 韓語

K
gogamza
119.18k
12
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98