L3.3 70B Euryale V2.3
基于Llama 3.3 Instruct训练的70B参数大语言模型,专注于对话生成和创意内容创作
下载量 1,274
发布时间 : 12/7/2024
模型简介
Euryale v2.3是基于Llama 3.3 Instruct训练的大语言模型,采用全参数微调而非流行的Lora提取方法。模型在对话生成和创意内容创作方面表现优异,支持长上下文处理(16k tokens)。
模型特点
全参数微调
采用全参数微调而非流行的Lora提取方法,可能获得更好的模型性能
长上下文支持
支持16,384 tokens的上下文长度,适合处理长文档和复杂对话
多数据集融合训练
融合了非对齐数据、角色扮演数据和指令数据,提升模型多样性和适应性
优化推理设置
提供经过验证的推荐推理参数(温度1.1,min_p 0.1),确保生成质量
模型能力
文本生成
对话系统
创意写作
角色扮演
指令遵循
使用案例
创意写作
故事创作
生成连贯、富有创意的故事情节和角色对话
对话系统
智能助手
作为智能对话助手,提供信息查询和日常交流功能
角色扮演
角色互动
模拟特定角色的语言风格和行为模式进行互动
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98