🚀 GLM-4-9B-0414 Neon v2
GLM-4-9B-0414をRPファインチューニングしたモデルです。魅力的な個性があり、文章もきれいです。ただし、時々少し変わった反応をすることがあります。ClaudeやGeminiのようなスタイルではなく、独自の雰囲気があります。ただし、長いシステムプロンプトやキャラクターカードは好まないようで、JSON形式のシステムプロンプトに反応が良いようです。
このモデルはAuriによって訓練されました。
Image by CalamitousFelicitousness
✨ 主な機能
- RPファインチューニングにより、魅力的な個性を持った応答が可能
- JSON形式のシステムプロンプトに反応が良い
📦 インストール
このセクションではインストールに関する具体的な手順が提供されていません。
💻 使用例
基本的な使用法
このモデルはGLM4のインストラクトフォーマットに対応しており、ベースモデルと同じように動作します。バックエンドではBOSトークンを自動的に追加することができないため、自分で追加する必要があります。チャットの完了にはJinjaテンプレートが有効です。
[gMASK]<sop><|system|>
{system_prompt}<|user|>
{prompt}<|assistant|>
高度な使用法
推奨されるサンプラーの設定は以下の通りです。
Temperature - 1
Min-P - 0.1
Repetition Penalty - 1.03
Example master import for SillyTavern (using Shingane-v1 system prompt by Steelskull)
📚 ドキュメント
訓練に関するメモ
このモデルは、77Mトークンの合成RPと短編小説生成データからなるデータセットで1エポック訓練されました。訓練は、OwenArliによって提供された2xRTX 3090のワークステーションで約11時間かかりました。訓練設定には適切なデフォルト値を使用し、QLoRAとCCEを組み合わせてメモリ使用量を最適化しました。48GBのメモリで16kのシーケンス長を問題なく扱うことができました。Eval/Lossが正常に動作しない問題がありましたが、原因は不明です。それ以外はスムーズに訓練が進みました。
ArliAIにはコンピューティングリソースの提供と共同作業に感謝いたします!
フォーマット
このモデルは、ベースモデルと同じようにGLM4のインストラクトフォーマットに反応します。バックエンドではBOSトークンを自動的に追加することができないため、自分で追加する必要があります。チャットの完了にはJinjaテンプレートが有効です。
推奨サンプラー
特に特別な設定は必要なく、一般的な設定で十分です。
訓練設定
Axolotl設定を表示
base_model: /home/owen/models/GLM-4-9B-0414
strict: false
model_type: AutoModelForCausalLM
plugins:
- axolotl.integrations.liger.LigerPlugin
- axolotl.integrations.cut_cross_entropy.CutCrossEntropyPlugin
liger_rope: false
liger_rms_norm: false
liger_glu_activation: false
liger_fused_linear_cross_entropy: false
cut_cross_entropy: true
output_dir: ./GLM-9B-Neon-v2
hub_model_id: AuriAetherwiing/GLM-9B-Neon-v2-LoRA
hf_use_auth_token: true
hub_strategy: "all_checkpoints"
wandb_project: allura-org
wandb_entity:
wandb_name: GLM-9B-Neon-v2
group_by_length: false
datasets:
- path: ./Neon/neon.jsonl
type: chat_template
field_messages: conversations
message_field_role: from
message_field_content: value
- path: ./Neon/S2.jsonl
type: chat_template
field_messages: conversations
message_field_role: from
message_field_content: value
- path: ./Neon/SystemChat_subset_filtered_sharegpt_utf8fix.jsonl
type: chat_template
field_messages: conversations
message_field_role: from
message_field_content: value
dataset_prepared_path: ./lora_last_run_prepared
val_set_size: 0.01
evals_per_epoch: 2
eval_table_size:
eval_max_new_tokens: 128
sequence_len: 16384
save_safetensors: true
saves_per_epoch: 2
logging_steps: 1
bf16: auto
fp16:
tf32: false
load_in_8bit: false
load_in_4bit: true
peft_use_rslora: false
peft_use_dora: false
adapter: qlora
lora_model_dir:
lora_r: 64
lora_alpha: 64
lora_dropout: 0.1
lora_target_linear: true
lora_fan_in_fan_out:
lora_target_modules:
num_epochs: 1
weight_decay: 0.01
max_grad_norm: 1.0
warmup_ratio: 0.05
learning_rate: 1e-5
lr_scheduler: rex
optimizer: adamw_torch
gradient_accumulation_steps: 32
micro_batch_size: 1
eval_batch_size: 1
pad_to_sequence_len: true
sample_packing: true
eval_sample_packing: false
flash_attention: true
xformers_attention:
gradient_checkpointing:
gradient_checkpointing_kwargs:
use_reentrant: false
fsdp:
- full_shard
- auto_wrap
fsdp_config:
fsdp_limit_all_gathers: true
fsdp_sync_module_states: true
fsdp_offload_params: false
fsdp_use_orig_params: false
fsdp_cpu_ram_efficient_loading: true
fsdp_auto_wrap_policy: TRANSFORMER_BASED_WRAP
fsdp_transformer_layer_cls_to_wrap: Glm4DecoderLayer
fsdp_state_dict_type: FULL_STATE_DICT
fsdp_sharding_strategy: FULL_SHARD
fsdp_activation_checkpointing: true
🔧 技術詳細
- ベースモデル: THUDM/GLM-4-9B-0414
- 訓練データセット:
- allura-org/Celeste-Filtered
- allura-org/neon-41k
- EVA-UNIT-01/Lilith-v0.2
- ライブラリ: transformers
📄 ライセンス
このモデルはMITライセンスの下で提供されています。