Linkbricks Horizon AI Korean Mistral Nemo Sft Dpo 12B
基于Mistral-Nemo-Instruct-2407微调的韩语语言模型,支持多语言交叉学习,强化了逻辑分析和文本生成能力
下载量 868
发布时间 : 8/7/2024
模型简介
该模型通过SFT->DPO流程微调,专注于处理复杂韩语逻辑问题,特别强化了客户评论分析、社交帖子高阶分析和编码能力。支持韩语、中文、英语和日语。
模型特点
多语言交叉学习
通过韩语-中文-英语-日语交叉训练数据增强多语言处理能力
高阶分析能力
特别强化了客户评论和社交帖子的高阶分析能力
大上下文窗口
支持128K的上下文窗口大小,适合处理长文本
优化训练流程
使用SFT->DPO流程和rslora技术进行优化训练
模型能力
韩语文本生成
多语言翻译
情感分析
文本摘要
问答系统
逻辑推理
使用案例
客户服务
客户评论分析
分析电商平台和社交媒体的客户评论
准确识别客户情感倾向和关键问题点
内容生成
多语言内容创作
生成韩语、中文、英语和日语的内容
保持语言风格一致性和文化适应性
政府服务
政府问答系统
处理政府相关的复杂问答
提供准确的政策解释和指导
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98