🚀 CoEdIT-xl-composite模型卡片
CoEdIT-xl-composite模型通過在CoEdIT-Composite數據集上微調對應的google/flan-t5-xl
模型而得。數據集的詳細信息可在我們的論文和倉庫中找到。
🚀 快速開始
本模型由在CoEdIT-Composite數據集上微調google/flan-t5-xl
模型得到。下面介紹如何使用該模型:
模型可用性
我們提供了論文中所提及的模型,具體信息如下:
模型 |
參數數量 |
CoEdIT-large |
7.7億 |
CoEdIT-xl |
30億 |
CoEdIT-xxl |
110億 |
使用示例
from transformers import AutoTokenizer, T5ForConditionalGeneration
tokenizer = AutoTokenizer.from_pretrained("grammarly/coedit-xl-composite")
model = T5ForConditionalGeneration.from_pretrained("grammarly/coedit-xl-composite")
input_text = 'Fix grammatical errors in this sentence and make it simpler: When I grow up, I start to understand what he said is quite right.'
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
outputs = model.generate(input_ids, max_length=256)
edited_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
軟件資源
更多軟件相關信息可查看:https://github.com/vipulraheja/coedit
✨ 主要特性
文本修訂任務
給定編輯指令和原始文本,我們的模型可以生成編輯後的文本。

該模型還可以處理複合指令編輯,如下所示:

📚 詳細文檔
模型詳情
模型描述
屬性 |
詳情 |
語言(NLP) |
英語 |
微調基礎模型 |
google/flan-t5-xl |
模型來源
- 倉庫:https://github.com/vipulraheja/coedit
- 論文:https://arxiv.org/abs/2305.09857
引用信息
BibTeX
@article{raheja2023coedit,
title={CoEdIT: Text Editing by Task-Specific Instruction Tuning},
author={Vipul Raheja and Dhruv Kumar and Ryan Koo and Dongyeop Kang},
year={2023},
eprint={2305.09857},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
APA
Raheja, V., Kumar, D., Koo, R., & Kang, D. (2023). CoEdIT: Text Editing by Task-Specific Instruction Tuning. ArXiv. /abs/2305.09857
📄 許可證
本模型使用的許可證為CC BY-NC 4.0。
數據集
本模型使用了以下數據集進行訓練:
- asset
- wi_locness
- GEM/wiki_auto_asset_turk
- discofuse
- zaemyung/IteraTeR_plus
- jfleg
- grammarly/coedit
評估指標
本模型使用了以下評估指標: