๐ kobart-news
This model is a fine - tuned version of kobart on the ๋ฌธ์์์ฝ ํ
์คํธ/์ ๋ฌธ๊ธฐ์ฌ using [Ainize Teachable - NLP](https://ainize.ai/teachable - nlp), aiming to provide summarization capabilities.
๐ Quick Start
โจ Features
This model is a fine - tuned kobart model. It is trained on the ๋ฌธ์์์ฝ ํ
์คํธ/์ ๋ฌธ๊ธฐ์ฌ dataset using [Ainize Teachable - NLP](https://ainize.ai/teachable - nlp), which can be used for text summarization tasks.
๐ฆ Installation
No specific installation steps are provided in the original document.
๐ป Usage Examples
Basic Usage
from transformers import PreTrainedTokenizerFast, BartForConditionalGeneration
tokenizer = PreTrainedTokenizerFast.from_pretrained("ainize/kobart-news")
model = BartForConditionalGeneration.from_pretrained("ainize/kobart-news")
input_text = '๊ตญ๋ด ์ ๋ฐ์ ์ธ ๊ฒฝ๊ธฐ์นจ์ฒด๋ก ์๊ฐ ๊ฑด๋ฌผ์ฃผ์ ์์ต๋ ์ ๊ตญ์ ์ธ ๊ฐ์์ธ๋ฅผ ๋ณด์ด๊ณ ์๋ ๊ฒ์ผ๋ก ๋ํ๋ฌ๋ค. ์์ตํ ๋ถ๋์ฐ ์ฐ๊ตฌ๊ฐ๋ฐ๊ธฐ์
์๊ฐ์ ๋ณด์ฐ๊ตฌ์๋ ํ๊ตญ๊ฐ์ ์ ํต๊ณ๋ฅผ ๋ถ์ํ ๊ฒฐ๊ณผ ์ ๊ตญ ์ค๋ํ ์๊ฐ ์์์
์๋(๋ถ๋์ฐ์์ ๋ฐ์ํ๋ ์๋์์
, ๊ธฐํ์์
์์ ์ ๋ฐ ๊ฒฝ๋น๋ฅผ ๊ณต์ ํ ์์๋)์ด 1๋ถ๊ธฐ ใก๋น 3๋ง4200์์์ 3๋ถ๊ธฐ 2๋ง5800์์ผ๋ก ๊ฐ์ํ๋ค๊ณ 17์ผ ๋ฐํ๋ค. ์๋๊ถ, ์ธ์ข
์, ์ง๋ฐฉ๊ด์ญ์์์ ์์์
์๋์ด ๊ฐ์ฅ ๋ง์ด ๊ฐ์ํ ์ง์ญ์ 3๋ถ๊ธฐ 1๋ง3100์์ ๊ธฐ๋กํ ์ธ์ฐ์ผ๋ก, 1๋ถ๊ธฐ 1๋ง9100์ ๋๋น 31.4% ๊ฐ์ํ๋ค. ์ด์ด ๋๊ตฌ(-27.7%), ์์ธ(-26.9%), ๊ด์ฃผ(-24.9%), ๋ถ์ฐ(-23.5%), ์ธ์ข
(-23.4%), ๋์ (-21%), ๊ฒฝ๊ธฐ(-19.2%), ์ธ์ฒ(-18.5%) ์์ผ๋ก ๊ฐ์ํ๋ค. ์ง๋ฐฉ ๋์์ ๊ฒฝ์ฐ๋ ๋น์ทํ๋ค. ๊ฒฝ๋จ์ 3๋ถ๊ธฐ ์์์
์๋์ 1๋ง2800์์ผ๋ก 1๋ถ๊ธฐ 1๋ง7400์ ๋๋น 26.4% ๊ฐ์ํ์ผ๋ฉฐ ์ ์ฃผ(-25.1%), ๊ฒฝ๋ถ(-24.1%), ์ถฉ๋จ(-20.9%), ๊ฐ์(-20.9%), ์ ๋จ(-20.1%), ์ ๋ถ(-17%), ์ถฉ๋ถ(-15.3%) ๋ฑ๋ ๊ฐ์์ธ๋ฅผ ๋ณด์๋ค. ์กฐํํ ์๊ฐ์ ๋ณด์ฐ๊ตฌ์ ์ฐ๊ตฌ์์ "์ฌํด ๋ด์ ๊ฒฝ๊ธฐ์ ์นจ์ฒด๋ ๋ถ์๊ธฐ๊ฐ ์ ์ง๋๋ฉฐ ์๊ฐ, ์คํผ์ค ๋ฑ์ ๋น๋กฏํ ์์ตํ ๋ถ๋์ฐ ์์ฅ์ ๋ถ์๊ธฐ๋ ๊ฒฝ์ง๋ ๋ชจ์ต์ ๋ณด์๊ณ ์คํผ์คํ
, ์ง์์ฐ์
์ผํฐ ๋ฑ์ ์์ตํ ๋ถ๋์ฐ ๊ณต๊ธ๋ ์ฆ๊ฐํด ๊ณต์ค์ ์ํ๋ ๋์๋ค"๋ฉฐ "์ค์ ์ฌ 3๋ถ๊ธฐ ์ ๊ตญ ์ค๋ํ ์๊ฐ ๊ณต์ค๋ฅ ์ 11.5%๋ฅผ ๊ธฐ๋กํ๋ฉฐ 1๋ถ๊ธฐ 11.3% ๋๋น 0.2% ํฌ์ธํธ ์ฆ๊ฐํ๋ค"๊ณ ๋งํ๋ค. ๊ทธ๋ "์ต๊ทผ ์์
์ปค๋จธ์ค(SNS๋ฅผ ํตํ ์ ์์๊ฑฐ๋), ์์ ๋ฐฐ๋ฌ ์ค๊ฐ ์ ํ๋ฆฌ์ผ์ด์
, ์ค๊ณ ๋ฌผํ ๊ฑฐ๋ ์ ํ๋ฆฌ์ผ์ด์
๋ฑ์ ์ฌ์ฉ ์ฆ๊ฐ๋ก ์คํ๋ผ์ธ ๋งค์ฅ์ ์ํฅ์ ๋ฏธ์ณค๋ค"๋ฉฐ "ํฅํ ์ง์ญ, ์ฝํ
์ธ ์ ๋ฐ๋ฅธ ์๊ถ ์๊ทนํ ํ์์ ์ฌํ๋ ๊ฒ์ผ๋ก ๋ณด์ธ๋ค"๊ณ ๋ง๋ถ์๋ค.'
input_ids = tokenizer.encode(input_text, return_tensors="pt")
summary_text_ids = model.generate(
input_ids=input_ids,
bos_token_id=model.config.bos_token_id,
eos_token_id=model.config.eos_token_id,
length_penalty=2.0,
max_length=142,
min_length=56,
num_beams=4,
)
print(tokenizer.decode(summary_text_ids[0], skip_special_tokens=True))
Advanced Usage
You can experience this model through [ainize - api](https://ainize.ai/gkswjdzz/summarize - torchserve?branch=main) and [ainize - demo](https://main - summarize - torchserve - gkswjdzz.endpoint.ainize.ai/).
๐ License
This project is licensed under the MIT license.