🚀 EEVE-Korean-Instruct-10.8B-v1.0-Grade-Retrieval
本模型经过微调,用于评估检索增强生成(RAG)中针对某个问题所检索到的上下文是否正确,并以“是”或“否”进行回答。
📚 详细文档
关于模型
该模型的基础模型是 yanolja/EEVE-Korean-Instruct-10.8B-v1.0。
提示模板
当给定问题和信息时,请评估这些信息是否足以回答该问题。
请用“예(是)”或“아니오(否)”来回答信息是否充足。
### 问题:
{question}
### 信息:
{context}
### 评估:
🚀 快速开始
如何使用
import torch
from transformers import (
BitsAndBytesConfig,
AutoModelForCausalLM,
AutoTokenizer,
)
model_path = "sinjy1203/EEVE-Korean-Instruct-10.8B-v1.0-Grade-Retrieval"
nf4_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_use_double_quant=True,
bnb_4bit_compute_dtype=torch.float16,
)
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(
model_path, quantization_config=nf4_config, device_map={'': 'cuda:0'}
)
prompt_template = '주어진 질문과 정보가 주어졌을 때 질문에 답하기에 충분한 정보인지 평가해줘.\n정보가 충분한지를 평가하기 위해 "예" 또는 "아니오"로 답해줘.\n\n### 질문:\n{question}\n\n### 정보:\n{context}\n\n### 평가:\n'
query = {
"question": "동아리 종강총회가 언제인가요?",
"context": "종강총회 날짜는 6월 21일입니다."
}
model_inputs = tokenizer(prompt_template.format_map(query), return_tensors='pt')
output = model.generate(**model_inputs, max_new_tokens=100, max_length=200)
print(output)
示例输出
当给定问题和信息时,请评估这些信息是否足以回答该问题。
请用“예(是)”或“아니오(否)”来回答信息是否充足。
### 问题:
社团结课总会什么时候举行?
### 信息:
结课总会日期是6月21日。
### 评估:
예<|end_of_text|>
训练数据
🔧 技术细节
指标
韩语大语言模型基准测试
模型 |
平均分 |
Ko-ARC |
Ko-HellaSwag |
Ko-MMLU |
Ko-TruthfulQA |
Ko-CommonGen V2 |
EEVE-Korean-Instruct-10.8B-v1.0 |
56.08 |
55.2 |
66.11 |
56.48 |
49.14 |
53.48 |
EEVE-Korean-Instruct-10.8B-v1.0-Grade-Retrieval |
56.1 |
55.55 |
65.95 |
56.24 |
48.66 |
54.07 |
生成数据集
模型 |
准确率 |
F1值 |
精确率 |
召回率 |
EEVE-Korean-Instruct-10.8B-v1.0 |
0.824 |
0.800 |
0.885 |
0.697 |
EEVE-Korean-Instruct-10.8B-v1.0-Grade-Retrieval |
0.892 |
0.875 |
0.903 |
0.848 |
📄 许可证
本项目采用 Apache-2.0 许可证。