🚀 research-backup/bart-base-squad-qg-no-answer
模型卡片
本模型是facebook/bart-base的微調版本,用於在lmqg/qg_squad(數據集名稱:默認)上進行問題生成任務,微調藉助了lmqg
工具。該模型在微調時不使用答案信息,即僅根據段落生成問題(請注意,普通模型是根據段落和段落中的相關答案來生成問題的)。
🚀 快速開始
本模型可用於文本到文本的生成任務,特別是問題生成。以下是使用該模型的快速指南。
✨ 主要特性
- 模型類型:基於
facebook/bart-base
微調的問題生成模型。
- 訓練數據:使用
lmqg/qg_squad
數據集進行訓練。
- 評估指標:使用了多種評估指標,包括BLEU4、METEOR、ROUGE-L、BERTScore和MoverScore等。
屬性 |
詳情 |
模型類型 |
基於facebook/bart-base 微調的問題生成模型 |
訓練數據 |
lmqg/qg_squad 數據集 |
📦 安裝指南
使用該模型前,需要安裝相關依賴庫,如lmqg
或transformers
。
💻 使用示例
基礎用法
使用lmqg
庫調用模型:
from lmqg import TransformersQG
model = TransformersQG(language="en", model="research-backup/bart-base-squad-qg-no-answer")
questions = model.generate_q(list_context="William Turner was an English painter who specialised in watercolour landscapes", list_answer="William Turner")
高級用法
使用transformers
庫調用模型:
from transformers import pipeline
pipe = pipeline("text2text-generation", "research-backup/bart-base-squad-qg-no-answer")
output = pipe("<hl> Beyonce further expanded her acting career, starring as blues singer Etta James in the 2008 musical biopic, Cadillac Records. <hl>")
📚 詳細文檔
評估
訓練超參數
以下是微調過程中使用的超參數:
- 數據集路徑:lmqg/qg_squad
- 數據集名稱:默認
- 輸入類型:['paragraph_sentence']
- 輸出類型:['question']
- 前綴類型:無
- 模型:facebook/bart-base
- 最大長度:512
- 最大輸出長度:32
- 訓練輪數:4
- 批次大小:32
- 學習率:0.0001
- 混合精度訓練:否
- 隨機種子:1
- 梯度累積步數:8
- 標籤平滑:0.15
完整的配置可以在微調配置文件中找到。
🔧 技術細節
本模型基於facebook/bart-base
進行微調,通過特定的訓練策略和超參數設置,在lmqg/qg_squad
數據集上進行問題生成任務的訓練。在訓練過程中,不使用答案信息,僅根據段落生成問題,這與傳統的問題生成模型有所不同。
📄 許可證
本模型使用CC BY 4.0許可證。
📖 引用
如果您使用了本模型,請引用以下論文:
@inproceedings{ushio-etal-2022-generative,
title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
author = "Ushio, Asahi and
Alva-Manchego, Fernando and
Camacho-Collados, Jose",
booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
month = dec,
year = "2022",
address = "Abu Dhabi, U.A.E.",
publisher = "Association for Computational Linguistics",
}