🚀 rwkv7-2.9B-world
這是一個採用閃存線性注意力格式的RWKV - 7模型,可用於文本生成任務。
🚀 快速開始
在使用此模型之前,請安裝flash-linear-attention
<= 0.1.2和最新版本的transformers
:
pip install --no-use-pep517 flash-linear-attention==0.1.2
pip install 'transformers>=4.48.0'
✨ 主要特性
- 支持多種語言,包括英語、中文、日語、韓語、法語、阿拉伯語、西班牙語和葡萄牙語。
- 採用閃存線性注意力格式,提升性能。
- 可用於文本生成任務。
📦 安裝指南
在使用此模型之前,請安裝flash-linear-attention
<= 0.1.2和最新版本的transformers
:
pip install --no-use-pep517 flash-linear-attention==0.1.2
pip install 'transformers>=4.48.0'
💻 使用示例
基礎用法
你可以像使用其他HuggingFace模型一樣使用此模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained('fla-hub/rwkv7-2.9B-world', trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained('fla-hub/rwkv7-2.9B-world', trust_remote_code=True)
model = model.cuda()
prompt = "What is a large language model?"
messages = [
{"role": "user", "content": "Who are you?"},
{"role": "assistant", "content": "I am a GPT-3 based model."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=1024,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=False)[0]
print(response)
📚 詳細文檔
模型詳情
模型描述
- 開發者:Bo Peng、Yu Zhang、Songlin Yang、Ruichong Zhang
- 資助方:RWKV項目(隸屬於LF AI & Data基金會)
- 模型類型:RWKV7
- 支持語言(NLP):英語
- 許可證:Apache - 2.0
- 參數數量:29億
- 分詞器:RWKV World分詞器
- 詞彙表大小:65,536
模型來源
使用場景
此模型可直接使用,無需微調或集成到更大的生態系統/應用中。
訓練數據
此模型在World v3數據集上進行訓練,總共有3.119萬億個標記。
訓練超參數
- 訓練機制:bfloat16,學習率從4e - 4到1e - 5進行“延遲”餘弦衰減,權重衰減為0.1(中間增加批量大小)
- 最終損失:1.8745
- 標記數量:3.119萬億
常見問題解答
Q:safetensors元數據為空。
A:將transformers
升級到 >= 4.48.0:pip install 'transformers>=4.48.0'
📄 許可證
本模型採用Apache - 2.0許可證。