A

ALMA 7B R

由 haoranxu 开发
ALMA-13B-R是基于ALMA-13B-LoRA通过对比偏好优化(CPO)进一步微调的大语言模型,专为机器翻译任务设计,性能超越GPT-4和WMT获胜者
下载量 281
发布时间 : 1/17/2024

模型简介

ALMA-13B-R是一个专注于机器翻译的大语言模型,通过对比偏好优化方法进行微调,支持高质量的多语言翻译任务

模型特点

对比偏好优化(CPO)
采用创新的对比偏好优化方法进行微调,而非传统的监督微调
高性能翻译
在翻译质量上达到甚至超越GPT-4和WMT比赛获胜者的水平
LoRA微调
使用LoRA(Low-Rank Adaptation)技术进行高效微调

模型能力

高质量机器翻译
多语言翻译
文本生成

使用案例

机器翻译
中英翻译
将中文文本翻译为英文
达到超越GPT-4的翻译质量
多语言翻译
支持多种语言间的翻译任务
在WMT比赛数据集上表现优异
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase