🚀 模型ID的模型卡片
本模型用於從段落自動生成標題,能夠將長摘要文本期刊總結為單行文本,這些單行文本可用作期刊的標題。
🚀 快速開始
使用以下代碼開始使用該模型:
from transformers import pipeline
text = """Text that needs to be summarized"""
summarizer = pipeline("summarization", model="path-to-model")
summary = summarizer(text)[0]["summary_text"]
print (summary)
✨ 主要特性
- 作為文本摘要器創建標題。
- 作為可調整的語言模型用於下游任務。
📦 安裝指南
文檔未提及安裝步驟,故跳過此部分。
💻 使用示例
基礎用法
from transformers import pipeline
text = """Text that needs to be summarized"""
summarizer = pipeline("summarization", model="path-to-model")
summary = summarizer(text)[0]["summary_text"]
print (summary)
📚 詳細文檔
模型詳情
模型描述
這是一個文本生成模型,用於將長摘要文本期刊總結為單行文本,這些單行文本可用作期刊的標題。
- 開發者:Tushar Joshi
- 共享者(可選):Tushar Joshi
- 模型類型:t5-small
- 語言(NLP):英語
- 許可證:Apache 2.0
- 微調基礎模型(可選):t5-small基線
模型來源(可選)
- 倉庫:https://huggingface.co/t5-small
用途
直接使用
作為段落的文本摘要器。
超出適用範圍的使用
不應作為非常長段落的文本摘要器。
偏差、風險和侷限性
- 最大輸入令牌大小為1024。
- 最大輸出令牌大小為24。
建議
用戶(直接用戶和下游用戶)應瞭解模型的風險、偏差和侷限性。如需進一步建議,還需更多信息。
訓練詳情
訓練數據
訓練數據是內部整理的,無法公開。
訓練過程
無。
預處理(可選)
無。
訓練超參數
速度、大小、時間(可選)
訓練使用GPU T4x 2完成。該任務耗時4:09:47。使用了包含10,000個示例的數據集來訓練生成模型。
評估
摘要質量在過去20年創建的5000篇研究期刊上進行了測試。
測試數據、因素和指標
- 測試數據大小:5000個示例
- 測試數據:測試數據是內部生成和整理的。
- 因素:[需要更多信息]
- 指標:模型使用Rouge指標進行評估,以下是達到的基線結果。
結果
輪次 |
訓練損失 |
驗證損失 |
Rouge1 |
Rouge2 |
Rougel |
Rougelsum |
生成長度 |
18 |
2.442800 |
2.375408 |
0.313700 |
0.134600 |
0.285400 |
0.285400 |
16.414100 |
19 |
2.454800 |
2.372553 |
0.312900 |
0.134100 |
0.284900 |
0.285000 |
16.445100 |
20 |
2.438900 |
2.372551 |
0.312300 |
0.134000 |
0.284500 |
0.284600 |
16.435500 |
環境影響
可以使用Lacoste等人(2019)中提出的機器學習影響計算器來估算碳排放。
- 硬件類型:GPU T4 x 2
- 使用時長:4.5小時
- 雲服務提供商:GCP
- 計算區域:愛爾蘭
- 碳排放:未知
技術規格(可選)
模型架構和目標
[需要更多信息]
計算基礎設施
[需要更多信息]
硬件
[需要更多信息]
軟件
[需要更多信息]
引用(可選)
BibTeX
[需要更多信息]
APA
[需要更多信息]
術語表(可選)
[需要更多信息]
更多信息(可選)
[需要更多信息]
模型卡片作者(可選)
Tushar Joshi
模型卡片聯繫人
Tushar Joshi
領英 - https://www.linkedin.com/in/tushar-joshi-816133100/
信息表格
屬性 |
詳情 |
模型類型 |
t5-small |
訓練數據 |
訓練數據是內部整理的,無法公開。 |
許可證 |
Apache 2.0 |
常用提示信息
⚠️ 重要提示
用戶(直接用戶和下游用戶)應瞭解模型的風險、偏差和侷限性。如需進一步建議,還需更多信息。
💡 使用建議
不應將該模型作為非常長段落的文本摘要器。