🚀 Mermaid-Llama-6.7B-RAGの紹介
このモデルは67億のパラメータを搭載しており、AIによるコード理解とナラティブの可視化における卓越性の基準を設定しています。また、https://huggingface.co/jondurbin が作成した「コンテキストに従順な」チャットテンプレートにインスパイアされ、幻覚のさらなる低減が実現されています。我々は巨人の肩の上に立っているので、LLMの最初のRAG開拓者であるJon Durbinに感謝します。また、Eric Hartfordには、プロンプトテンプレートに関する直感を私に直接共有してくれたことに特別な感謝を表します。あなたの共有された知恵は、私自身の特殊なメインマークモデルに適した独自のスタイルを革新する手助けとなりました。
このRAGモデルは、入力をフローチャートに変換するだけでなく、Mermaid JS構文での形式化された知識グラフの活用にも優れています。
詳細なメインマークについてはこちらを参照してください: https://www.mermaidchart.com

注: 過去2ヶ月間、私のモデルが実稼働で使用されていることを知らされました。
ビジネス環境で私のモデルがどのように効果的に使用されているかについて得た洞察を通じて、私はこのモデルを私に連絡を取ってきた人々のニーズに合わせて調整しました。
ですから、ぜひ楽しんでいただき、フィードバックは常に歓迎します。良いフィードバックでも悪いフィードバックでも構いません。実際、悪いフィードバックの方が好きです。
- 現在の問題はコンピューティング能力の不足です - 仕事を得て/お金を稼いでトレーニングできるようになったら解決します。4096のコンテキスト長は、集約戦略を使用せずに完全なシステム図を作成したい人にとって非常に制限的です。
✨ 主な機能
-
コード理解能力:
- Pythonの複雑さをマスターします。
- 正確なメインマークのフローチャートを生成します。
- コードロジックを可視化する開発者に最適です。
-
ストーリーテリング能力:
- 物語を魅力的なメインマークの図に変換します。
- キャラクターの相互作用、プロットの展開、物語のアークをマッピングします。
-
卓越したパフォーマンス:
- 整然としたメインマークの図を生成する能力でGPT - 4を上回ります。
-
コンテキストへの高い忠実度 (新機能):
- コンテキストに基づくプロンプトを組み込み、忠実度を向上させ、幻覚を減らします。
- airoborosのコンテキストに従順な形式をサポートします。
🤝 コラボレーション
メインマークの機能を強化するためのコラボレーションの機会については、troydoesai@gmail.comまでご連絡ください。
📋 使用例
- 検索強化型生成 (RAG): ベクトルデータベースを使用して検索を強化するための凝縮された知識グラフを作成し、効率的な情報検索を実現します。知識グラフとコンテキスト認識型RAG機能を組み合わせて、より良い知識の凝縮を実現します。
- コードドキュメント作成: Pythonコードから自動的に視覚的なフローチャートを生成します。
- ストーリーボード作成: ストーリーテリングのための視覚的に魅力的な図を作成します。
- プロジェクト計画: 効果的なチームコミュニケーションのための視覚的なプロジェクトフローマップを生成します。
- Python学習支援: 学生がPythonのコード構造を視覚化するのを支援します。
- ゲームデザイン: ゲームのストーリーラインを可視化し、一貫した物語構造を実現します。
📊 データセット形式 (新機能)
コンテキストへの忠実度を向上させ、幻覚を減らすために、データセットは以下の形式に従っています。
BEGININPUT
BEGINCONTEXT
[key0: value0]
[key1: value1]
ENDCONTEXT
[ここにテキストブロックを挿入]
ENDINPUT
BEGININSTRUCTION
[命令を挿入]
ENDINSTRUCTION
この構造は冗長ですが、モデルが特定の応答と情報源を理解するのに役立ちます。
💻 使用例
基本的な使用法
BEGININPUT
BEGINCONTEXT
date: 2021-01-01
url: https://web.site/123
ENDCONTEXT
Blueberries are now green.
ENDINPUT
BEGININSTRUCTION
What color are blueberries? Source?
ENDINSTRUCTION
高度な使用法
Blueberries are now green.
Source:
date: 2021-01-01
url: https://web.site/123
🛠 概念実証
VSCode拡張機能が近日公開されます。これにより、10秒以上一時停止すると、リアルタイムのフローマップが表示されます。
🔧 トレーニング仕様
プロパティ |
詳細 |
LoRA Rank |
2048 |
LoRA Alpha |
4096 |
Batch Size |
1 |
Micro Batch Size |
1 |
Cutoff Length |
4096 |
Save every n steps |
1000 |
Epochs |
3 |
Learning Rate |
1e - 6 |
LR Scheduler |
Cosine |
対象モジュール:
- q_projを有効にする
- v_projを有効にする
- k_projを有効にする
- o_projを有効にする
- gate_projを有効にする
- down_projを有効にする
- up_projを有効にする
🚀 クイックスタート
まずは、私のモデルの1つをダウンロードしてください。

モデルをロードします。

私のプロンプトテンプレートを使用して、メインマークのコードブロックを生成します。これは、メインマークのライブエディタまたはメインマークのCLIツールを使用して表示できます。

ここでは、VramでMermaid - Llama - 8Bを実行しながらVLLM GUIプログラムを開き、フローダイアグラムと実際のプログラムを比較し、消費者向けハードウェアでの小規模モデルの軽量性を示します。

私のVLLMクラスと推論GUIについての詳細: https://github.com/Troys-Code/VLLM

⚠️ 重要提示
このモデルは自動補完モデルとして扱うべきです。チャット形式で話しかけると意味のない出力が得られます。それらのレイヤーは削除され、置き換えられています。これが、1000件未満の小規模データセットでのトレーニングの秘密の調合です。
ԅ(≖‿≖ԅ)
注目していてください: これからもたくさんの新機能が追加されます。間もなく、メインマークモデルは「メインマーク」を「コード」に変換できるようになります。
この新しいデータセットが機能すれば、コードブロックのリファクタリングに革命をもたらすでしょう。
私は必死に面接を受けているので、これには時間がかかるかもしれません。毎週期末試験を迎えるような忙しい日々を過ごしています。
コラボノートブックの使用方法とモデルの推論の最も簡単な例のビデオ:
'''
https://m.youtube.com/watch?v=fdwoOmiA2d0
'''
コラボノートブック:
'''
https://colab.research.google.com/github/Troys-Code/MermaidEngine/blob/main/Mermaid_Llama_RAG_Colab_TextGen_GPU.ipynb
'''
📄 ライセンス
このプロジェクトはCC - BY - 4.0ライセンスの下で公開されています。