🚀 lmqg/mt5-small-jaquad-qg-ae
模型卡片
本模型是 google/mt5-small 的微調版本,通過 lmqg
在 lmqg/qg_jaquad(數據集名稱:default)上聯合進行問題生成和答案提取任務。
🚀 快速開始
模型概述
使用方法
使用 lmqg
庫
from lmqg import TransformersQG
model = TransformersQG(language="ja", model="lmqg/mt5-small-jaquad-qg-ae")
question_answer_pairs = model.generate_qa("フェルメールの作品では、17世紀のオランダの畫家、ヨハネス・フェルメールの作品について記述する。フェルメールの作品は、疑問作も含め30數點しか現存しない。現存作品はすべて油彩畫で、版畫、下絵、素描などは殘っていない。")
使用 transformers
庫
from transformers import pipeline
pipe = pipeline("text2text-generation", "lmqg/mt5-small-jaquad-qg-ae")
answer = pipe("generate question: ゾフィーは貴族出身ではあったが王族出身ではなく、ハプスブルク家の皇位継承者であるフランツ・フェルディナントとの結婚は貴賤結婚となった。皇帝フランツ・ヨーゼフは、2人の間に生まれた子孫が皇位を継がないことを條件として結婚を承認していた。視察が予定されている<hl>6月28日<hl>は2人の14回目の結婚記念日であった。")
question = pipe("extract answers: 『クマのプーさん』の物語はまず1925年12月24日、『イヴニング・ニュース』紙のクリスマス特集號に短編作品として掲載された。これは『クマのプーさん』の第一章にあたる作品で、このときだけは挿絵をJ.H.ダウドがつけている。その後作品10話と挿絵が整い、刊行に先駆けて「イーヨーの誕生日」のエピソードが1926年8月に『ロイヤルマガジン』に、同年10月9日に『ニューヨーク・イヴニング・ポスト』紙に掲載されたあと、同年10月14日にロンドンで(メシュエン社)、21日にニューヨークで(ダットン社)『クマのプーさん』が刊行された。<hl>前著『ぼくたちがとてもちいさかったころ』がすでに大きな成功を収めていたこともあり、イギリスでは初版は前著の7倍に當たる3萬5000部が刷られた。<hl>他方のアメリカでもその年の終わりまでに15萬部を売り上げている。ただし依然として人気のあった前著を売り上げで追い越すには數年の時間を要した。")
📚 詳細文檔
評估指標
問題生成指標
問題與答案生成指標
答案提取指標
訓練超參數
以下是微調過程中使用的超參數:
屬性 |
詳情 |
數據集路徑 |
lmqg/qg_jaquad |
數據集名稱 |
default |
輸入類型 |
['paragraph_answer', 'paragraph_sentence'] |
輸出類型 |
['question', 'answer'] |
前綴類型 |
['qg', 'ae'] |
模型 |
google/mt5-small |
最大輸入長度 |
512 |
最大輸出長度 |
32 |
訓練輪數 |
24 |
批次大小 |
64 |
學習率 |
0.0005 |
是否使用半精度 |
False |
隨機種子 |
1 |
梯度累積步數 |
1 |
標籤平滑度 |
0.15 |
完整配置可查看 微調配置文件。
📄 許可證
本項目採用 CC BY 4.0 許可證。
📖 引用
@inproceedings{ushio-etal-2022-generative,
title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
author = "Ushio, Asahi and
Alva-Manchego, Fernando and
Camacho-Collados, Jose",
booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
month = dec,
year = "2022",
address = "Abu Dhabi, U.A.E.",
publisher = "Association for Computational Linguistics",
}