L3 8B Stheno V3.3 32K
基于Llama-3-8B优化的32K长上下文模型,通过PoSE训练扩展上下文长度,专注于角色扮演和创意写作任务
Downloads 541
Release Time : 6/22/2024
Model Overview
该模型是通过PoSE训练方法将8K上下文扩展至32K的Llama-3-8B优化版本,特别强化了角色扮演和创意写作能力,同时保持了基础语言理解能力
Model Features
扩展上下文处理
通过PoSE训练方法将上下文长度从8K扩展至32K,优于常规rope缩放方案
高质量角色扮演
经过深度清理和人工筛选的角色扮演样本,提供优异的交互体验
创意写作增强
创意写作训练样本翻倍,显著提升生成质量
优化训练配置
采用经过调试的最优Rope Theta值(200万)配置,确保训练稳定性
Model Capabilities
长文本生成
角色扮演对话
创意内容创作
指令跟随
上下文理解
Use Cases
娱乐与创作
互动式角色扮演
与AI进行沉浸式角色扮演对话
主观体验报告显示交互质量优异
创意写作辅助
生成小说、诗歌等创意文本
训练数据中创意写作样本增加2倍
长文档处理
长文摘要
处理长达32K上下文的文档摘要任务
基础测试显示优于常规rope缩放方案
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 Chinese
R
uer
2,694
98