🚀 rwkv7-2.9B-world
このモデルは、flash-linear attention形式のRWKV-7モデルです。自然言語処理タスクにおいて、高い性能を発揮することが期待されます。
🚀 クイックスタート
このモデルを使用する前に、flash-linear-attention
<= 0.1.2 と最新バージョンの transformers
をインストールしてください。
pip install --no-use-pep517 flash-linear-attention==0.1.2
pip install 'transformers>=4.48.0'
✨ 主な機能
- このモデルは、flash-linear attention形式のRWKV-7モデルです。
- 自然言語処理タスクにおいて、高い性能を発揮することが期待されます。
📦 インストール
このモデルを使用する前に、flash-linear-attention
<= 0.1.2 と最新バージョンの transformers
をインストールしてください。
pip install --no-use-pep517 flash-linear-attention==0.1.2
pip install 'transformers>=4.48.0'
💻 使用例
基本的な使用法
このモデルは、他のHuggingFaceモデルと同じように使用できます。
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained('fla-hub/rwkv7-2.9B-world', trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained('fla-hub/rwkv7-2.9B-world', trust_remote_code=True)
model = model.cuda()
prompt = "What is a large language model?"
messages = [
{"role": "user", "content": "Who are you?"},
{"role": "assistant", "content": "I am a GPT-3 based model."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=1024,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=False)[0]
print(response)
📚 ドキュメント
モデルの詳細
モデルの説明
- 開発者: Bo Peng, Yu Zhang, Songlin Yang, Ruichong Zhang
- 資金提供: RWKV Project (LF AI & Data Foundation配下)
- モデルタイプ: RWKV7
- 言語: 英語
- ライセンス: Apache-2.0
- パラメータ数: 29億
- トークナイザー: RWKV Worldトークナイザー
- 語彙サイズ: 65,536
モデルのソース
用途
このモデルは、自然言語処理タスクに使用できます。
直接使用
このモデルは、他のHuggingFaceモデルと同じように使用できます。
学習データ
このモデルは、合計3.119兆トークンのWorld v3で学習されています。
学習ハイパーパラメータ
- 学習方式: bfloat16, lr 4e-4から1e-5の「遅延」コサイン減衰, wd 0.1 (途中でバッチサイズを増やす)
- 最終損失: 1.8745
- トークン数: 3.119兆
FAQ
Q: safetensorsのメタデータがない。
A: transformersを >=4.48.0にアップグレードしてください: pip install 'transformers>=4.48.0'
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。