🚀 🏆 ZeroXClem-Llama-3.1-8B-SpecialTitanFusion 🏆
このモデルは、Titanレベルのモデルを強力に融合し、ロールプレイ、創造性、知性を向上させるように設計されています。

🚀 クイックスタート
ZeroXClem-Llama-3.1-8B-SpecialTitanFusionは、最先端のトランスフォーマーアーキテクチャを活用して精巧に作成されたモデルマージです。mergekit
を使用して、複数の高性能Llama - 3.1モデルを結合し、コンテキストの保持、創造性、繊細なテキスト生成能力を向上させました。
このモデルは、kromeurus/L3.1-Siithamo-v0.4-8B をベースに、model_stock
メソッドを使用して選りすぐったモデルをマージしています。
✨ 主な機能
- 🔹 高度なダイナミックな文章生成 – ストーリーテリング、ワールドビルディング、創造的なアプリケーションに最適。
- 🔹 洗練されたロールプレイ能力 – 深いキャラクターの一貫性、感情的な応答、没入感のある対話生成。
- 🔹 より良い構造化された記憶 – 大規模なコンテキストの会話での一貫性が向上。
- 🔹 バランスの取れた非制約的な応答 – さまざまなユースケースに適応。
📦 インストール
🔥 Ollama (クイック推論)
Ollamaを使用してモデルを直接テストすることができます。
ollama run hf.co/ZeroXClem-Llama-3.1-8B-SpecialTitanFusion
🤗 Hugging Face Transformers (Python)
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import torch
model_name = "ZeroXClem-Llama-3.1-8B-SpecialTitanFusion"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto"
)
text_generator = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer,
torch_dtype=torch.bfloat16,
device_map="auto"
)
prompt = "Describe the significance of AI ethics in modern technology."
outputs = text_generator(
prompt,
max_new_tokens=200,
do_sample=True,
temperature=0.7,
top_k=50,
top_p=0.95
)
print(outputs[0]["generated_text"])
📚 ドキュメント
📌 概要
ZeroXClem-Llama-3.1-8B-SpecialTitanFusionは、最先端のトランスフォーマーアーキテクチャを活用して精巧に作成されたモデルマージです。mergekit
を使用して、複数の高性能Llama - 3.1モデルを結合し、コンテキストの保持、創造性、繊細なテキスト生成能力を向上させました。
このモデルは、kromeurus/L3.1-Siithamo-v0.4-8B をベースに、model_stock
メソッドを使用して選りすぐったモデルをマージしています。
🛠 マージの詳細
🔄 マージ方法: model_stock
このモデルはmodel_stockメソッドを使用してマージされ、すべての寄与アーキテクチャのバランスの取れた最適なブレンドが保証されています。
📑 マージされたモデル
この融合に貢献したモデルは次のとおりです。
⚙ 設定
name: ZeroXClem-Llama-3.1-8B-SpecialTitanFusion
base_model: kromeurus/L3.1-Siithamo-v0.4-8B
dtype: bfloat16
merge_method: model_stock
models:
- model: bunnycore/Llama-3.1-8B-TitanFusion-Test
- model: vicgalle/Roleplay-Hermes-3-Llama-3.1-8B
- model: vicgalle/Humanish-Roleplay-Llama-3.1-8B
- model: bunnycore/Llama-3.1-8B-TitanFusion-Mix
tokenizer_source: kromeurus/L3.1-Siithamo-v0.4-8B
🔧 推奨使用方法
📜 プロンプトスタイル
最良の結果を得るには、Llama - 3.1 Instructに似たシステムプロンプトを使用してください。
システムメッセージの例:
Think step by step with a logical reasoning and intellectual sense before you provide any response.
ロールプレイでの創造性を高めるには、次のようなものを試してみてください。
### Instruction:
You are an advanced roleplaying assistant. Maintain deep character consistency and immersive storytelling.
🏗 モデル設定
最適な出力品質を得るには、次の設定を使用してください。
Temperature: 1.2
Min P: 0.1
Repeat Penalty: 1.05
Repeat Penalty Tokens: 256
Smooth Sampling: 0.18
🔥 免責事項
- 🔹 責任を持って使用してください!
このモデルはMetaのLlama - 3.1コミュニティライセンス契約に従っています。これは無検閲のモデルであり、個々のユースケースに基づいてアライメントを実装する必要があります。
- 🔹 生成したコンテンツには責任を負います。
このモデルを本番環境で展開する際には、倫理的なAIガイドラインに準拠していることを確認してください。
💬 フィードバックと貢献
改善策や提案がある場合は、Hugging Faceでディスカッションを開いてください!一緒にLlama - 3.1のマージ技術を向上させましょう! 🚀
詳細な結果はこちらで確認できます。
指標 |
値 |
平均 |
29.23 |
IFEval (0-Shot) |
74.02 |
BBH (3-Shot) |
34.82 |
MATH Lvl 5 (4-Shot) |
23.34 |
GPQA (0-shot) |
6.60 |
MuSR (0-shot) |
7.49 |
MMLU-PRO (5-shot) |
29.12 |
📄 ライセンス
このモデルはApache - 2.0ライセンスの下で提供されています。