Llama3 Instructrans Enko 8b GGUF
模型简介
该模型专注于英韩双向翻译任务,特别适合处理指令类文本的翻译。
模型特点
高质量英韩翻译
专注于提供高质量的英韩双向翻译,特别优化了指令类文本的翻译效果。
基于Llama3架构
利用强大的Llama3-8B-it模型作为基础,具备优秀的语言理解和生成能力。
大规模训练数据
使用超过150万条英韩平行语料进行训练,包括AI Hub和translate_corpus数据集。
模型能力
英文到韩文翻译
韩文到英文翻译
指令文本翻译
双语文本生成
使用案例
语言服务
技术文档翻译
将英文技术文档准确翻译为韩文
保持技术术语的准确性和上下文一致性
应用界面本地化
翻译应用界面和用户指令
提供自然流畅的本地化内容
教育
学习材料翻译
将英文学习材料翻译为韩文辅助学习
保持原文教育内容和结构的准确性
🚀 llama3-instrucTrans-enko-8b-GGUF
本项目提供了来自 nayohan 的 llama3-instrucTrans-enko-8b 模型的量化 GGUF 格式文件。该模型专注于英韩翻译任务,基于 Llama-3-8B-it 进行训练,在多个翻译数据集上表现出色。
🚀 快速开始
加载模型
使用以下 Python 代码加载模型:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "nayohan/llama3-instrucTrans-enko-8b"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
device_map="auto",
torch_dtype=torch.bfloat16
)
生成文本
此模型支持英文到韩文的翻译。使用以下 Python 代码进行翻译:
system_prompt="당신은 번역기 입니다. 영어를 한국어로 번역하세요."
sentence = "The aerospace industry is a flower in the field of technology and science."
conversation = [{'role': 'system', 'content': system_prompt},
{'role': 'user', 'content': sentence}]
inputs = tokenizer.apply_chat_template(
conversation,
tokenize=True,
add_generation_prompt=True,
return_tensors='pt'
).to("cuda")
outputs = model.generate(inputs, max_new_tokens=4096) # Finetuned with length 4096
print(tokenizer.decode(outputs[0][len(inputs[0]):]))
翻译结果示例
# Result
INPUT: <|begin_of_text|><|start_header_id|>system<|end_header_id|>\n\n당신은 번역기 입니다. 영어를 한국어로 번역하세요.<|eot_id|><|start_header_id|>user<|end_header_id|>\n\nThe aerospace industry is a flower in the field of technology and science.<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n
OUTPUT: 항공우주 산업은 기술과 과학 분야의 꽃입니다.<|eot_id|>
INPUT: <|begin_of_text|><|start_header_id|>system<|end_header_id|>\n\n당신은 번역기 입니다. 영어를 한국어로 번역하세요.<|eot_id|><|start_header_id|>user<|end_header_id|>\n\n
Technical and basic sciences are very important in terms of research. It has a significant impact on the industrial development of a country. Government policies control the research budget.<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n
OUTPUT: 기술 및 기초 과학은 연구 측면에서 매우 중요합니다. 이는 한 국가의 산업 발전에 큰 영향을 미칩니다. 정부 정책은 연구 예산을 통제합니다.<|eot_id|>
评估结果示例
# EVAL_RESULT (2405_KO_NEWS) (max_new_tokens=512)
"en_ref":"This controversy arose around a new advertisement for the latest iPad Pro that Apple released on YouTube on the 7th. The ad shows musical instruments, statues, cameras, and paints being crushed in a press, followed by the appearance of the iPad Pro in their place. It appears to emphasize the new iPad Pro's artificial intelligence features, advanced display, performance, and thickness. Apple mentioned that the newly unveiled iPad Pro is equipped with the latest 'M4' chip and is the thinnest device in Apple's history. The ad faced immediate backlash upon release, as it graphically depicts objects symbolizing creators being crushed. Critics argue that the imagery could be interpreted as technology trampling on human creators. Some have also voiced concerns that it evokes a situation where creators are losing ground due to AI."
"ko_ref":"이번 논란은 애플이 지난 7일 유튜브에 공개한 신형 아이패드 프로 광고를 둘러싸고 불거졌다. 해당 광고 영상은 악기와 조각상, 카메라, 물감 등을 압착기로 짓누른 뒤 그 자리에 아이패드 프로를 등장시키는 내용이었다. 신형 아이패드 프로의 인공지능 기능들과 진화된 디스플레이와 성능, 두께 등을 강조하기 위한 취지로 풀이된다. 애플은 이번에 공개한 아이패드 프로에 신형 ‘M4’ 칩이 탑재되며 두께는 애플의 역대 제품 중 가장 얇다는 설명도 덧붙였다. 광고는 공개 직후 거센 비판에 직면했다. 창작자를 상징하는 물건이 짓눌려지는 과정을 지나치게 적나라하게 묘사한 점이 문제가 됐다. 기술이 인간 창작자를 짓밟는 모습을 묘사한 것으로 해석될 여지가 있다는 문제의식이다. 인공지능(AI)으로 인해 창작자가 설 자리가 줄어드는 상황을 연상시킨다는 목소리도 나왔다."
"our-instrucTrans":"이번 논란은 애플이 지난 7일 유튜브에 공개한 최신 아이패드 프로 광고를 둘러싸고 불거졌다. 광고는 악기, 조각상, 카메라, 물감 등을 압착기에 넣어 부숴버리다가 그 자리에 아이패드 프로가 등장하는 것으로, 새로 공개된 아이패드 프로가 최신 'M4'칩을 탑재하고 애플 사상 가장 얇은 기기라는 점을 강조한 것으로 보인다. 광고는 출시 즉시 창작자를 상징하는 물건들이 압착기에 갈겨버리는 장면을 그래픽으로 보여줘, 기술이 인간 창작자를 짓밟는 것으로 해석될 수 있다는 지적과 함께, AI로 인해 창작자들이 지위를 잃어가는 상황을 연상시킨다는 비판이 제기됐다."
✨ 主要特性
- 多数据集训练:基于多个英韩翻译数据集进行训练,包括 nayohan/aihub-en-ko-translation-1.2m 和 nayohan/translate_corpus_313k,提升翻译性能。
- 量化格式支持:提供量化的 GGUF 格式文件,便于在不同环境中使用。
- 多场景适用:在多种英韩翻译场景下表现良好,如新闻、日常对话等。
📦 安装指南
本项目依赖于 transformers
库,可使用以下命令进行安装:
pip install transformers
📚 详细文档
评估结果
为评估英韩翻译性能,选择了以下数据集进行评估:
评估数据集出处
- Aihub/FLoRes: traintogpb/aihub-flores-koen-integrated-sparta-30k | (测试集 1k)
- iwslt-2023 : shreevigneshs/iwslt-2023-en-ko-train-val-split-0.1 | (f_test 597, if_test 597)
- ko_news_2024: nayohan/ko_news_eval40 | (40)
模型评估方法
- 每个模型基于 Hugging Face 上 README 中提供的推理代码进行推理(通用参数:max_new_tokens=512)。
- EEVE 在系统提示中添加指令("당신은 번역기 입니다. 영어를 한국어로 번역하세요."),KULLM3 保持原系统提示,并在用户输入开头添加该指令。
各数据集评估结果
Aihub 英韩翻译数据集评估
- Aihub 评估数据集 可能包含在模型的训练数据集中,仅用于查看各类别性能。[类别说明链接]
| 模型 | aihub-111 | aihub-124 | aihub-125 | aihub-126 | aihub-563 | aihub-71265 | aihub-71266 | aihub-71382 | 平均 | | ---- | ---- | ---- | ---- | ---- | ---- | ---- | ---- | ---- | ---- | | EEVE-10.8b-it | 6.15 | 11.81 | 5.78 | 4.99 | 6.31 | 10.99 | 9.41 | 6.44 | 7.73 | | KULLM3 | 9.00 | 13.49 | 10.43 | 5.90 | 1.92 | 16.37 | 10.02 | 8.39 | 9.44 | | Seagull-13B | 9.8 | 18.38 | 8.51 | 5.53 | 8.74 | 17.44 | 10.11 | 11.21 | 11.21 | | Synatra-7B | 6.99 | 25.14 | 7.79 | 5.31 | 9.95 | 19.27 | 13.20 | 8.93 | 12.07 | | nhndq-nllb | 24.09 | 48.71 | 22.89 | 13.98 | 18.71 | 30.18 | 32.49 | 18.62 | 26.20 | | our-tech | 20.19 | 37.48 | 18.50 | 12.45 | 16.96 | 13.92 | 43.54 | 9.62 | 21.58 | | our-general | 24.72 | 45.22 | 21.61 | 18.97 | 17.23 | 30.00 | 32.08 | 13.55 | 25.42 | | our-sharegpt | 12.42 | 19.23 | 10.91 | 9.18 | 14.30 | 26.43 | 12.62 | 15.57 | 15.08 | | our-instrucTrans | 24.89 | 47.00 | 22.78 | 21.78 | 24.27 | 27.98 | 31.31 | 15.42 | 26.92 |
FLoRes 英韩翻译数据集评估
FloRes 是 Facebook 公开的英语与 200 种低资源语言的并行翻译基准数据集。使用 traintogpb/aihub-flores-koen-integrated-sparta-30k 进行评估(单句构成)。
模型 | flores-dev | flores-devtest | 平均 |
---|---|---|---|
EEVE-10.8b-it | 10.99 | 11.71 | 11.35 |
KULLM3 | 12.83 | 13.23 | 13.03 |
Seagull-13B | 11.48 | 11.99 | 11.73 |
Synatra-7B | 10.98 | 10.81 | 10.89 |
nhndq-nllb | 12.79 | 15.15 | 13.97 |
our-tech | 12.14 | 12.04 | 12.09 |
our-general | 14.93 | 14.58 | 14.75 |
our-sharegpt | 14.71 | 16.69 | 15.70 |
our-instrucTrans | 14.49 | 17.69 | 16.09 |
iwslt-2023 数据集评估
iwslt-2023 数据集 使用相同英语句子的韩语半语和敬语进行评估,可相对了解模型的敬语/半语倾向(单句构成)。
模型 | iwslt_zondae | iwslt_banmal | 平均 |
---|---|---|---|
EEVE-10.8b-it | 4.62 | 3.79 | 4.20 |
KULLM3 | 5.94 | 5.24 | 5.59 |
Seagull-13B | 6.14 | 4.54 | 5.34 |
Synatra-7B | 5.43 | 4.73 | 5.08 |
nhndq-nllb | 8.36 | 7.44 | 7.90 |
our-tech | 3.99 | 3.95 | 3.97 |
our-general | 7.33 | 6.18 | 6.75 |
our-sharegpt | 7.83 | 6.35 | 7.09 |
our-instrucTrans | 8.63 | 6.97 | 7.80 |
ko_news_eval40 数据集评估
ko_news_eval40 数据集 收集了 2024 年 5 月各类别(4 类)的 10 篇新闻文章段落,并使用 GPT4 进行翻译,用于评估模型将英语翻译为日常新闻韩语的能力(段落构成)。
模型 | IT/科学 | 经济 | 社会 | 观点 | 平均 |
---|---|---|---|---|---|
EEVE-10.8b-it | 9.03 | 6.42 | 5.56 | 5.10 | 6.52 |
KULLM3 | 9.82 | 5.26 | 3.48 | 7.48 | 6.51 |
Seagull-13B | 7.41 | 6.78 | 4.76 | 4.85 | 5.95 |
Synatra-7B | 11.44 | 5.59 | 4.57 | 6.31 | 6.97 |
nhndq-nllb | 11.97 | 11.12 | 6.14 | 5.28 | 8.62 |
our-tech | 10.45 | 9.98 | 5.13 | 10.15 | 8.92 |
our-general | 16.22 | 10.61 | 8.51 | 7.33 | 10.66 |
our-sharegpt | 12.71 | 8.06 | 7.70 | 6.43 | 8.72 |
our-instrucTrans | 20.42 | 12.77 | 11.40 | 10.31 | 13.72 |
综合平均评估结果
模型 | aihub | flores | iwslt | news | 平均 |
---|---|---|---|---|---|
EEVE-10.8b-it | 7.73 | 11.35 | 4.20 | 6.52 | 7.45 |
KULLM3 | 9.44 | 13.03 | 5.59 | 6.51 | 8.64 |
Seagull-13B | 11.21 | 11.73 | 5.34 | 5.95 | 8.56 |
Synatra-7B | 12.07 | 10.89 | 5.08 | 6.97 | 8.75 |
nhndq-nllb | 26.20 | 13.97 | 7.90 | 8.62 | 14.17 |
our-tech | 21.58 | 12.09 | 3.97 | 8.92 | 11.64 |
our-general | 25.42 | 14.75 | 6.75 | 10.66 | 14.40 |
our-sharegpt | 15.08 | 15.70 | 7.09 | 8.72 | 11.64 |
our-instrucTrans | 26.92 | 16.09 | 7.80 | 13.72 | 16.13 |
引用信息
@article{InstrcTrans8b,
title={llama3-instrucTrans-enko-8b},
author={Na, Yohan},
year={2024},
url={https://huggingface.co/nayohan/llama3-instrucTrans-enko-8b}
}
@article{llama3modelcard,
title={Llama 3 Model Card},
author={AI@Meta},
year={2024},
url={https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
}
📄 许可证
本模型遵循 llama3 许可证。
M2m100 418M
MIT
M2M100是一个多语言编码器-解码器模型,支持100种语言的9900个翻译方向
机器翻译 支持多种语言
M
facebook
1.6M
299
Opus Mt Fr En
Apache-2.0
基于Transformer的法语到英语神经机器翻译模型,由Helsinki-NLP团队开发,采用OPUS多语数据集训练。
机器翻译 支持多种语言
O
Helsinki-NLP
1.2M
44
Opus Mt Ar En
Apache-2.0
基于OPUS数据训练的阿拉伯语到英语的机器翻译模型,采用transformer-align架构
机器翻译 支持多种语言
O
Helsinki-NLP
579.41k
42
M2m100 1.2B
MIT
M2M100是一个支持100种语言的多语言机器翻译模型,可直接在9900个翻译方向之间进行翻译。
机器翻译 支持多种语言
M
facebook
501.82k
167
Indictrans2 Indic En 1B
MIT
支持25种印度语言与英语互译的1.1B参数规模机器翻译模型,由AI4Bharat项目开发
机器翻译
Transformers 支持多种语言

I
ai4bharat
473.63k
14
Opus Mt En Zh
Apache-2.0
基于Transformer架构的英汉多方言翻译模型,支持英语到13种汉语变体的翻译任务
机器翻译 支持多种语言
O
Helsinki-NLP
442.08k
367
Opus Mt Zh En
由赫尔辛基大学开发的基于OPUS语料库的中文到英语机器翻译模型
机器翻译 支持多种语言
O
Helsinki-NLP
441.24k
505
Mbart Large 50 Many To Many Mmt
基于mBART-large-50微调的多语言机器翻译模型,支持50种语言间的互译
机器翻译 支持多种语言
M
facebook
404.66k
357
Opus Mt De En
Apache-2.0
opus-mt-de-en 是一个基于 transformer-align 架构的德语到英语的机器翻译模型,由 Helsinki-NLP 团队开发。
机器翻译 支持多种语言
O
Helsinki-NLP
404.33k
44
Opus Mt Es En
Apache-2.0
这是一个基于Transformer架构的西班牙语到英语的机器翻译模型,由Helsinki-NLP团队开发。
机器翻译
Transformers 支持多种语言

O
Helsinki-NLP
385.40k
71
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98