🚀 CausalLM 7B-DPO-alpha - GGUF
このモデルは、テキスト生成を行うためのモデルです。CausalLMによって作成されたCausalLM 7B-DPO-alphaモデルのGGUF形式のモデルファイルを提供しています。
🚀 クイックスタート
このモデルの量化バージョンは、TheBlokeの公開形式を参考に、TheBloke/CausalLM-7B-GGUFの推奨に基づいて作成されました。
✨ 主な機能
- 複数のデータセットを用いて訓練されたモデルです。
- 英語と中国語に対応しています。
- GGUF形式のモデルファイルを提供しています。
📦 インストール
本READMEには具体的なインストール手順が記載されていないため、このセクションをスキップします。
💻 使用例
本READMEには具体的なコード例が記載されていないため、このセクションをスキップします。
📚 ドキュメント
モデル情報
データセット
- JosephusCheung/GuanacoDataset
- Open-Orca/OpenOrca
- stingning/ultrachat
- meta-math/MetaMathQA
- liuhaotian/LLaVA-Instruct-150K
- jondurbin/airoboros-3.1
- WizardLM/WizardLM_evol_instruct_V2_196k
- RyokoAI/ShareGPT52K
- RyokoAI/Fandom23K
- milashkaarshif/MoeGirlPedia_wikitext_raw_archive
- wikipedia
- wiki_lingua
- fnlp/moss-003-sft-data
- garage-bAInd/Open-Platypus
- LDJnr/Puffin
- openbmb/llava_zh
- BAAI/COIG
- TigerResearch/tigerbot-zhihu-zh-10k
- liwu/MNBVC
- teknium/openhermes
GGUFについて
GGUFは、2023年8月21日にllama.cppチームによって導入された新しい形式です。これは、llama.cppでサポートされなくなったGGMLの代替品です。
GGUFをサポートしているクライアントとライブラリの不完全なリストは以下の通りです。
- llama.cpp。GGUFのソースプロジェクトです。CLIとサーバーオプションを提供しています。
- text-generation-webui、最も広く使用されているWeb UIで、多くの機能と強力な拡張機能を備えています。GPUアクセラレーションをサポートしています。
- KoboldCpp、完全な機能を備えたWeb UIで、すべてのプラットフォームとGPUアーキテクチャでGPUアクセラレーションをサポートしています。特にストーリーテリングに適しています。
- LM Studio、WindowsとmacOS(Silicon)用の使いやすく強力なローカルGUIで、GPUアクセラレーションをサポートしています。
- LoLLMS Web UI、多くの興味深い独自の機能を備えた素晴らしいWeb UIで、モデルの選択が容易な完全なモデルライブラリを含んでいます。
- Faraday.dev、WindowsとmacOS(SiliconとIntelの両方)用の魅力的で使いやすいキャラクターベースのチャットGUIで、GPUアクセラレーションをサポートしています。
- ctransformers、GPUアクセラレーション、LangChainサポート、およびOpenAI互換のAIサーバーを備えたPythonライブラリです。
- llama-cpp-python、GPUアクセラレーション、LangChainサポート、およびOpenAI互換のAPIサーバーを備えたPythonライブラリです。
- candle、パフォーマンスに重点を置いたRustのMLフレームワークで、GPUサポートと使いやすさを備えています。
プロンプトテンプレート
<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
ライセンス
ソースモデルの作成者は、そのライセンスをwtfpl
としてリストしており、この量子化でも同じライセンスが使用されています。
このモデルはLlama 2に基づいているため、Meta Llama 2のライセンス条項の対象となり、そのライセンスファイルも追加で含まれています。したがって、このモデルは両方のライセンスの下でライセンスされていると見なされるべきです。二重ライセンスについての明確化のためにHugging Faceに連絡しましたが、まだ公式の立場はありません。これが変更された場合、またはMetaがこの状況について何らかのフィードバックを提供した場合、このセクションを適宜更新します。
その間、ライセンスに関する質問、特にこれら2つのライセンスがどのように相互作用するかについては、元のモデルリポジトリ:CausalLMのCausalLM 7B-DPO-alphaに問い合わせてください。
互換性
これらの量子化されたGGUFv2ファイルは、8月27日以降のllama.cpp(コミットd0cee0d)と互換性があります。
また、多くのサードパーティのUIやライブラリとも互換性があります - 詳細はこのREADMEの上部のリストを参照してください。
量子化方法の説明
詳細を表示するにはクリック
利用可能な新しい方法は以下の通りです。
- GGML_TYPE_Q4_K - 8つのブロックを含むスーパーブロックでの「タイプ1」の4ビット量子化で、各ブロックには32の重みがあります。スケールと最小値は6ビットで量子化されます。これにより、4.5 bpwが使用されます。
- GGML_TYPE_Q5_K - 「タイプ1」の5ビット量子化です。GGML_TYPE_Q4_Kと同じスーパーブロック構造で、5.5 bpwになります。
どのファイルがどの方法を使用しているか、およびその方法については、以下の提供されるファイルの表を参照してください。
提供されるファイル
元のモデルカード
詳細については、DPOトレーニングを行っていないバージョン:CausalLM/7Bを参照してください。
モデル |
MT-Bench |
GPT-4 |
8.99 |
GPT-3.5-Turbo |
7.94 |
|
|
Zephyr-7b-β (過学習) |
7.34 |
Zephyr-7b-α |
6.88 |
|
|
CausalLM/14B-DPO-α |
7.618868 |
CausalLM/7B-DPO-α |
7.038125 |
これは、CausalLM/14B & 7Bの上で継続的にトレーニングされたバージョンではなく、以前のトレーニングブランチで同時にDPOトレーニングを行った最適化バージョンであり、いくつかの詳細なパラメータが変更されている可能性があります。まだ完全なモデルをダウンロードする必要があります。
ベータブランチは間もなくリリースされ、一部のタスクで有害になる可能性のある積極的なアプローチを採用して、人間の好みとのより良いアライメントを達成し、GPT-3.5のベンチマークに匹敵するか、それを超えることを目指しています。お楽しみに。
免責事項:このモデルは、フィルタリングされていないインターネットデータでトレーニングされています。すべてのデータを審査する能力がないため、多くの不快な内容、ポルノグラフィー、暴力、および不快な言葉が含まれている可能性があり、これらを削除することはできません。したがって、まだモデルの安全性を独自に確認し、出力内のキーワードをフィルタリングする必要があります。計算リソースの制約により、現在、モデルの倫理と安全性のためにRLHFを実装することも、特定の質問に答えることを拒否するSFTサンプルでのトレーニングによる制限的な微調整を行うこともできません。
🔧 技術詳細
本READMEには具体的な技術詳細が記載されていないため、このセクションをスキップします。
📄 ライセンス
ソースモデルのライセンスはwtfpl
です。また、このモデルはLlama 2に基づいているため、Meta Llama 2のライセンス条項の対象となります。