🚀 rwkv7-1.5B-world
这是一款基于flash-linear attention格式的RWKV-7模型,支持多种语言,可用于文本生成任务,在自然语言处理领域有广泛应用。
🚀 快速开始
在使用该模型之前,需要安装flash-linear-attention
和最新版本的transformers
:
pip install git+https://github.com/fla-org/flash-linear-attention
pip install 'transformers>=4.48.0'
✨ 主要特性
- 多语言支持:支持英语、中文、日语、韩语、法语、阿拉伯语、西班牙语和葡萄牙语。
- 模型类型:RWKV7
- 许可证:Apache-2.0
📦 安装指南
安装flash-linear-attention
和最新版本的transformers
:
pip install git+https://github.com/fla-org/flash-linear-attention
pip install 'transformers>=4.48.0'
💻 使用示例
基础用法
你可以像使用其他HuggingFace模型一样使用该模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained('fla-hub/rwkv7-1.5B-world', trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained('fla-hub/rwkv7-1.5B-world', trust_remote_code=True)
model = model.cuda()
prompt = "What is a large language model?"
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=4096,
do_sample=True,
temperature=1.0,
top_p=0.3,
repetition_penalty=1.2
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=False)[0]
print(response)
📚 详细文档
模型详情
模型描述
- 开发者:Bo Peng, Yu Zhang, Songlin Yang, Ruichong Zhang
- 资助方:RWKV Project (Under LF AI & Data Foundation)
- 模型类型:RWKV7
- 支持语言(NLP):英语、中文、日语、韩语、法语、阿拉伯语、西班牙语、葡萄牙语
- 许可证:Apache-2.0
- 参数数量:1.52B
- 分词器:RWKV World tokenizer
- 词汇量:65,536
模型资源
训练详情
训练数据
该模型在World v3上进行训练,总共有3.119万亿个标记。
训练超参数
- 训练机制:bfloat16, 学习率从4e - 4到1e - 5进行“延迟”余弦衰减,权重衰减为0.1(中间增加批量大小)
- 最终损失:1.9965
- 标记数量:3.119万亿
评估
评估指标
lambada_openai
:
- 转换前:困惑度4.13,准确率69.4%
- 转换后:困惑度4.26,准确率68.8%(未应用模板)
常见问题解答
Q: safetensors元数据为空。
A: 将transformers
升级到 >=4.48.0: pip install 'transformers>=4.48.0'
📄 许可证
本模型使用的许可证为Apache - 2.0。