🚀 泰语T5指令模型(ThaiT5-Instruct)
泰语T5指令模型(ThaiT5-Instruct)
是 kobkrit/thai-t5-base
的微调版本,在 WangchanX无种子合成指令泰语120k 数据集上进行训练。该模型支持多种自然语言处理任务,包括对话、多项选择推理、头脑风暴、问答和摘要生成。此模型经过了13个训练周期,若有更多资源,其性能有望进一步提升。
✨ 主要特性
- 多任务支持:支持对话、多项选择推理、头脑风暴、问答和摘要生成等多种NLP任务。
- 可扩展性:经过13个训练周期的训练,并且可以利用更多资源进一步优化。
📦 安装指南
文档未提及安装步骤,跳过该章节。
💻 使用示例
基础推理(无上下文)
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
model = AutoModelForSeq2SeqLM.from_pretrained("Peenipat/ThaiT5-Instruct", trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("Peenipat/ThaiT5-Instruct")
input_text = "หวัดดี"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(input_ids=inputs["input_ids"])
output_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(output_text)
示例:
input_text = "คำว่า ฮัก หมายถึงอะไร"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(input_ids=inputs["input_ids"])
output_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(output_text)
输出:
"ฮัก หมายถึง ภาษา สันสกฤต ภาษา สันสกฤต "
问答(有上下文)
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer, pipeline
model = AutoModelForSeq2SeqLM.from_pretrained("Peenipat/ThaiT5-Instruct", trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("Peenipat/ThaiT5-Instruct")
model.eval()
qa_pipeline = pipeline("text2text-generation", model=model, tokenizer=tokenizer)
def ask_question():
context = input("Input Context: ")
question = input("Input Question: ")
input_text = f"Context: {context} Question: {question}"
output = qa_pipeline(input_text,
max_length=60,
min_length=20,
no_repeat_ngram_size=3,
num_beams=5,
early_stopping=True)
output_text = output[0]['generated_text']
print("\nOutput:")
print(output_text)
示例:
Input Context: ฮัก คือความรู้สึกผูกพันและห่วงใยที่เกิดขึ้นระหว่างคนที่มีความสำคัญต่อกัน ไม่ว่าจะเป็นฮักหนุ่มสาว ฮักพ่อแม่ลูก หรือฮักพี่น้อง ฮักบ่ได้หมายถึงแค่ความสุข แต่ยังรวมถึงความเข้าใจ การอดทน และการเสียสละเพื่อกันและกัน คนอีสานมักแสดงความฮักผ่านการกระทำมากกว่าคำพูด เช่น การดูแลเอาใจใส่ และการอยู่เคียงข้างยามทุกข์ยาก ฮักแท้คือฮักที่มั่นคง บ่เปลี่ยนแปลงตามกาลเวลา และเต็มไปด้วยความจริงใจ
Input Question: คำว่า ฮัก หมายถึงอะไร
Output:
ฮัก ความรู้สึกผูกพันและห่วงใย เกิดขึ้นระหว่างคนมีความสําคัญต่อกัน ฮักบ่ได้หมายถึงความสุข ความเข้าใจ การอดทน เสียสละเพื่อกันและกัน คนอีสานมักแสดงความฮักผ่านการกระทํามากกว่าคําพูด ดูแลเอาใจใส่ ที่อยู่เคียงข้างยามทุกข์
📚 详细文档
模型描述
泰语T5指令模型(ThaiT5-Instruct)
是 kobkrit/thai-t5-base
的微调版本,在 WangchanX无种子合成指令泰语120k 数据集上进行训练。该模型支持多种NLP任务,包括对话、多项选择推理、头脑风暴、问答和摘要生成。
该模型经过了 13个训练周期 的训练,并且可以利用更多资源进一步优化。
训练详情
- 基础模型:
kobkrit/thai-t5-base
- 训练轮数:
13
- 每个设备的批次大小:
32
- 梯度累积步数:
2
- 优化器:AdamW
- 使用的硬件:
A100
每轮训练损失:
[2.2463, 1.7010, 1.5261, 1.4626, 1.4085, 1.3844, 1.3647, 1.3442, 1.3373, 1.3182, 1.3169, 1.3016]
每轮验证损失:
[1.4781, 1.3761, 1.3131, 1.2775, 1.2549, 1.2364, 1.2226, 1.2141, 1.2043, 1.1995, 1.1954, 1.1929]
评估结果
该模型使用了几种NLP指标进行评估,结果如下:
指标 |
得分 |
ROUGE-1 |
0.0617 |
ROUGE-2 |
0.0291 |
ROUGE-L |
0.061 |
BLEU |
0.0093 |
完全匹配 |
0.2516 |
F1得分 |
27.8984 |
局限性与未来改进
- 可以利用更多的训练资源进一步优化该模型。
- 在复杂推理任务上的性能可能需要在特定领域的数据集上进行进一步的微调。
- 该模型不像 ChatGPT、Gemini 或其他先进的AI模型那样具备通用智能。它擅长从给定的上下文中提取答案,而不是独立生成知识。
引用
如果您使用此模型,请按以下方式引用:
@misc{PeenipatThaiT5Instruct,
title={ThaiT5-Instruct},
author={Peenipat},
year={2025},
publisher={Hugging Face},
url={https://huggingface.co/Peenipat/ThaiT5-Instruct}
}
📄 许可证
本项目采用MIT许可证。