🚀 flan - t5 - titlegen - springer模型
本模型是一個用於科學摘要自動生成簡潔標題的模型,基於google/flan - t5 - base微調而來,能有效利用預訓練模型的能力,為機器學習相關研究生成精準標題。
🚀 快速開始
安裝依賴
確保你已經安裝了transformers
庫,可以使用以下命令進行安裝:
pip install transformers
代碼示例
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
model = AutoModelForSeq2SeqLM.from_pretrained("tiam4tt/flan-t5-titlegen-springer")
tokenizer = AutoTokenizer.from_pretrained("tiam4tt/flan-t5-titlegen-springer")
abstract = "Transfer learning has become a crucial technique in deep learning, enabling models to leverage knowledge from pre-trained networks for improved performance on new tasks. In this study, we propose an optimized fine-tuning strategy for convolutional neural networks (CNNs), reducing training time while maintaining high accuracy. Experiments on CIFAR-10 show a 15% improvement in efficiency compared to standard fine-tuning methods, demonstrating the effectiveness of our approach."
inputs = tokenizer(abstract, return_tensors="pt", padding=True, truncation=True)
outputs = model.generate(**inputs, max_new_tokens=32)
title = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(title)
✨ 主要特性
- 基於google/flan - t5 - base微調,專門用於將科學摘要進行抽象式總結,生成簡潔標題。
- 在來自Springer期刊出版物的數據集上進行訓練,該數據集經過篩選,僅包含與機器學習相關的研究。
- 利用FLAN - T5的指令跟隨能力,生成精確且與上下文相關的標題。
📚 詳細文檔
模型詳情
- 開發者:tiam4tt,HTThuanHcmus
- 模型類型:語言模型
- 語言(NLP):英語
- 許可證:MIT
- 微調基礎模型:[google/flan - t5 - base](https://huggingface.co/google/flan - t5 - base)
項目倉庫
直接使用和下游使用
該模型可以在更廣泛的跨學科數據集上進行進一步微調,以提高其在其他研究領域的泛化能力和準確性,從而生成更精確且與上下文相關的標題。
適用範圍外的使用
將此模型用於不相關的任務,如新聞文章摘要、創意寫作生成或處理來自不相關領域(如化學、法律或醫學)的高度技術性摘要,可能會導致輸出不準確或質量低下。若要在機器學習文獻之外實現有效泛化,需要在更廣泛的數據集上進行微調。
訓練數據
[springer - journal - final](https://www.kaggle.com/datasets/tiamatt/springer - journal - final)
評估指標
指標類型 |
值 |
ROUGE_1 |
0.6852 |
ROUGE_2 |
0.5385 |
ROUGE_L |
0.6411 |
ROUGE_Lsum |
0.6411 |
Precision |
0.9383 |
Recall |
0.9222 |
F1 |
0.9300 |
📄 許可證
本模型使用的許可證為MIT許可證。