EEVE Korean Instruct 2.8B V1.0
基於EEVE-Korean-2.8B-v1.0微調的韓語指令模型,採用DPO優化訓練
下載量 2,197
發布時間 : 2/22/2024
模型概述
這是一個針對韓語優化的指令跟隨大語言模型,能夠以專業、詳盡且禮貌的方式回答用戶問題。
模型特點
韓語優化
專門針對韓語進行詞彙擴展和優化訓練
指令跟隨
能夠準確理解並執行用戶指令
DPO優化
採用直接偏好優化方法提升回答質量
模型能力
韓語文本生成
問答系統
信息提取
多選項解答
使用案例
教育
選擇題解答
解答包含多個選項的問題
能準確選擇正確答案並給出詳細解釋
客服
專業禮貌回答
提供專業且禮貌的客戶服務回答
回答風格符合專業客服要求
🚀 EEVE-Korean-Instruct-2.8B-v1.0
EEVE-Korean-Instruct-2.8B-v1.0 是基於大語言模型領域開發的模型,它在特定基礎模型上進行微調,適用於韓語相關的語言處理任務,為韓語語言交互等場景提供支持。
🚀 快速開始
加入我們的 Discord 社區!
如果您對大語言模型領域充滿熱情,希望交流知識和見解,我們誠摯地邀請您加入我們的 Discord 服務器。值得注意的是,該服務器主要使用韓語。大語言模型的發展日新月異,如果不積極分享,我們的知識很快就會過時。讓我們攜手合作,共同產生更大的影響!點擊此處加入:Discord 鏈接。
✨ 主要特性
團隊信息
研究人員 | 工程師 | 產品管理 | 用戶體驗設計 |
---|---|---|---|
鄭明浩 金承德 崔承澤 |
金健 裡夫奇·阿爾菲 韓相勳 姜秀賢 |
許博京 | 崔恩秀 |
模型介紹
該模型是 yanolja/EEVE-Korean-2.8B-v1.0 的微調版本,而 yanolja/EEVE-Korean-2.8B-v1.0 是 microsoft/phi-2 的韓語詞彙擴展版本。具體來說,我們通過 Axolotl 使用了直接偏好優化(DPO)方法。
更多詳細信息,請參考我們的技術報告:Efficient and Effective Vocabulary Expansion Towards Multilingual Large Language Models。
提示模板
A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions.
Human: {prompt}
Assistant:
📦 安裝指南
文檔未提供安裝步驟,暫不展示。
💻 使用示例
基礎用法
from transformers import AutoTokenizer
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("yanolja/EEVE-Korean-Instruct-2.8B-v1.0", trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("yanolja/EEVE-Korean-Instruct-2.8B-v1.0", trust_remote_code=True)
prompt_template = "A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions.\nHuman: {prompt}\nAssistant:\n"
text = '한국의 수도는 어디인가요? 아래 선택지 중 골라주세요.\n\n(A) 경성\n(B) 부산\n(C) 평양\n(D) 서울\n(E) 전주'
model_inputs = tokenizer(prompt_template.format(prompt=text), return_tensors='pt')
outputs = model.generate(**model_inputs, max_new_tokens=256)
output_text = tokenizer.batch_decode(outputs, skip_special_tokens=True)[0]
print(output_text)
示例輸出
A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions.
Human: 한국의 수도는 어디인가요? 아래 선택지 중 골라주세요.
(A) 경성
(B) 부산
(C) 평양
(D) 서울
(E) 전주
Assistant:
한국의 수도는 (D) 서울입니다. 서울은 수도권과 수도권 내의 주요 도시들을 포함하는 광역 행정구역으로, 대한민국의 수도입니다. 서울은 수도권 인구의 약 70%를 차지하며, 대한민국의 경제, 정치, 문화의 중심지입니다.
📚 詳細文檔
訓練數據
- Open-Orca/SlimOrca-Dedup 的韓語翻譯版本
- argilla/ultrafeedback-binarized-preferences-cleaned 的韓語翻譯版本
- 未使用其他數據集
引用信息
@misc{kim2024efficient,
title={Efficient and Effective Vocabulary Expansion Towards Multilingual Large Language Models},
author={Seungduk Kim and Seungtaek Choi and Myeongho Jeong},
year={2024},
eprint={2402.14714},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
@misc{cui2023ultrafeedback,
title={UltraFeedback: Boosting Language Models with High-quality Feedback},
author={Ganqu Cui and Lifan Yuan and Ning Ding and Guanming Yao and Wei Zhu and Yuan Ni and Guotong Xie and Zhiyuan Liu and Maosong Sun},
year={2023},
eprint={2310.01377},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
@misc{SlimOrcaDedup,
title = {SlimOrca Dedup: A Deduplicated Subset of SlimOrca},
author = {Wing Lian and Guan Wang and Bleys Goodson and Eugene Pentland and Austin Cook and Chanvichet Vong and "Teknium" and Nathan Hoos},
year = {2023},
publisher = {HuggingFace},
url = {https://huggingface.co/datasets/Open-Orca/SlimOrca-Dedup/}
}
@misc{mukherjee2023orca,
title={Orca: Progressive Learning from Complex Explanation Traces of GPT-4},
author={Subhabrata Mukherjee and Arindam Mitra and Ganesh Jawahar and Sahaj Agarwal and Hamid Palangi and Ahmed Awadallah},
year={2023},
eprint={2306.02707},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
Open LLM Leaderboard Evaluation Results
詳細結果可在 此處 查看。
指標 | 值 |
---|---|
平均值 | 58.71 |
AI2 Reasoning Challenge (25-Shot) | 58.28 |
HellaSwag (10-Shot) | 72.42 |
MMLU (5-Shot) | 53.35 |
TruthfulQA (0-shot) | 48.32 |
Winogrande (5-shot) | 74.82 |
GSM8k (5-shot) | 45.11 |
📄 許可證
本項目採用 Apache-2.0 許可證。
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98