🚀 Estopiaモデル
Estopiaは、インストラクト形式を使用したときの対話と散文の返答を改善することに焦点を当てたモデルです。キャラクターカードなどの表現も向上し、多くの場合で詳細をしっかりと記憶します。また、指示を使って架空の物語を導く「ガイド付きナラティブ」にも特化しています。
🚀 クイックスタート
Estopiaモデルは、主にAlpaca形式を使用してテストされていますが、含まれるモデルの範囲から、他の形式にもある程度の理解があると思われます。以下にテストされた形式の例を示します。
### Instruction:
What colour is the sky?
### Response:
The sky is...
<Story text>
***
Write a summary of the text above
***
The story starts by...
- Kobold Lite AIアドベンチャーモードの使用
User:Hello there!
Assistant:Good morning...
一般的な使用には、以下の設定が推奨されます。
設定項目 |
推奨値 |
Temperature |
0.8 - 1.2 |
Min P |
0.05 - 0.1 |
Max P |
0.92、またはMin Pが0より大きい場合は1 |
Top K |
0 |
応答長 |
通常より長い値が適切です。例えば、一般的に選択される値は512です。 |
Rep Pen |
1.1 |
Rep Pen Range |
応答長の2または3倍 |
停止トークン(必要ないが、AIが書きすぎる場合に役立つ) |
```## |
⚠️ 重要提示
応答長は必ずしも指定した長さになるとは限りません。場合によっては、応答が完全に伝われば短くなることもあれば、指定値を超えることもあります。主にキャラクターカードや指示などに依存します。
💡 使用建议
上記の設定は、指示の追従と創造性のバランスを取った一般的に良好な体験を提供します。一般的に、温度を高く設定するほど、創造性が高まりますが、AIの応答に論理的なエラーが生じる可能性も高くなります。
✨ 主な機能
- インストラクト形式での対話と散文の返答を改善
- ガイド付きナラティブに特化
- キャラクターカードや詳細の記憶能力が向上
📚 ドキュメント
モデルの作成レシピ
このモデルは3段階で作成されました。最初の段階はEstopiaV9と呼ばれ、指示の追従性と応答の創造性が高い一方で、応答が一般的に短く、出力の範囲もやや制限されていましたが、微妙なニュアンスをうまく伝えることができました。
merge_method: task_arithmetic
base_model: TheBloke/Llama-2-13B-fp16
models:
- model: TheBloke/Llama-2-13B-fp16
- model: Undi95/UtopiaXL-13B
parameters:
weight: 1.0
- model: Doctor-Shotgun/cat-v1.0-13b
parameters:
weight: 0.02
- model: PygmalionAI/mythalion-13b
parameters:
weight: 0.10
- model: Undi95/Emerhyst-13B
parameters:
weight: 0.05
- model: CalderaAI/13B-Thorns-l2
parameters:
weight: 0.05
- model: KoboldAI/LLaMA2-13B-Tiefighter
parameters:
weight: 0.20
dtype: float16
2番目の段階はEstopiaV13で、応答が長くなりましたが、小説スタイルの散文に依存しすぎるため、指示を追加するための適切な終了点を超えて書き続ける傾向がありました。ただし、上記のように中立性が向上し、V9の多くの詳細追跡能力を保持していました。
merge_method: task_arithmetic
base_model: TheBloke/Llama-2-13B-fp16
models:
- model: TheBloke/Llama-2-13B-fp16
- model: Undi95/UtopiaXL-13B
parameters:
weight: 1.0
- model: Doctor-Shotgun/cat-v1.0-13b
parameters:
weight: 0.01
- model: chargoddard/rpguild-chatml-13b
parameters:
weight: 0.02
- model: PygmalionAI/mythalion-13b
parameters:
weight: 0.08
- model: CalderaAI/13B-Thorns-l2
parameters:
weight: 0.02
- model: KoboldAI/LLaMA2-13B-Tiefighter
parameters:
weight: 0.20
dtype: float16
3番目の段階では、2つのモデルをマージして、両方の利点をできるだけ保持しました。これは、dareマージ手法を使用して行われました。
models:
- model: EstopiaV9
parameters:
weight: 1
density: 1
- model: EstopiaV13
parameters:
weight: 0.05
density: 0.30
merge_method: dare_ties
base_model: TheBloke/Llama-2-13B-fp16
parameters:
int8_mask: true
dtype: bfloat16
モデル選択
モデル名 |
特徴 |
Undi95/UtopiaXL-13B |
モデルのベースとして堅実で、長い応答を書く能力と詳細の保持力が一般的に良好です。 |
Doctor-Shotgun/cat-v1.0-13b |
医学に焦点を当てたモデルで、心理学などの人間の応答にも少し焦点を当てて追加されています。 |
PygmalionAI/mythalion-13b |
ロールプレイとインストラクトに焦点を当てたモデルで、キャラクターカードの詳細への注意と応答の多様性を向上させます。 |
Undi95/Emerhyst-13B |
ロールプレイであり、長文の応答も可能なモデルです。応答はかなり変動することがありますが、ナラティブ中にAIが応答できる深度と可能なオプションを追加するのに役立ちます。 |
CalderaAI/13B-Thorns-l2 |
中立的で非常に注意深いモデルです。チャットと指示の追従に優れており、これらのモードに役立ちます。 |
KoboldAI/LLaMA2-13B-Tiefighter |
物語の執筆とアドベンチャーモードに焦点を当てた堅実なモデルです。創造性とモデルの散文に全体的な利点をもたらし、アドベンチャーモードのサポートも提供します。 |
chargoddard/rpguild-chatml-13b |
ロールプレイモデルで、新しいデータを導入し、長いナラティブでの詳細保持も向上させます。 |
🔧 技術詳細
このモデルは、内部に異なるモデルが含まれているため、完全なシーケンス終了トークンを持たない可能性があります。これは多くのマージモデルが抱える問題です。これを最小限に抑えるための試みが行われていますが、時折、奇妙な動作をするトークンが表示されることがあります。一度手動で編集すれば、モデルはそれを理解するはずです。
チャットは、このモデルで最もテストされていない領域の1つです。かなりうまく機能しますが、キャラクターカードに依存することがあります。
このモデルは、ナラティブと散文に焦点を当てています。そのため、指示や他のコンテキスト内で、コラボレーターやナレーターとして行動するように指示された場合、話しかけることができます。これは、主に指示を追加して制限するか、チャットモードを使用することで軽減できます。
📄 ライセンス
このモデルのライセンスはcc-by-nc-4.0です。