🚀 Laser-Dolphin-Mixtral-4x7b-dpo
このモデルは、cognitivecomputations/dolphin-2.6-mistral-7b-dpo-laserに基づく中規模のMoE実装です。このモデルにより、高精度なテキスト生成が可能になります。

Fernando FernandesとEric Hartfordのプロジェクト laserRMT へのクレジット
このモデルのプロセスは、このノートブックに概説されています。
🚀 クイックスタート
モデルの読み込みと使用
以下のコードを使って、モデルを読み込み、テキストを生成することができます。
from transformers import AutoModelForCausalLM, AutoTokenizer
def generate_response(prompt):
"""
入力プロンプトに基づいてモデルから応答を生成します。
引数:
prompt (str): モデルに与えるプロンプト。
戻り値:
str: モデルから生成された応答。
"""
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=256, eos_token_id=tokenizer.eos_token_id, pad_token_id=tokenizer.pad_token_id)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
return response
model_id = "macadeliccc/laser-dolphin-mixtral-4x7b-dpo"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, load_in_4bit=True)
prompt = "Write a quicksort algorithm in python"
print("Response:")
print(generate_response(prompt), "\n")
💻 使用例
基本的な使用法
以下は、モデルを使ってテキストを生成する基本的なコード例です。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "macadeliccc/laser-dolphin-mixtral-4x7b-dpo"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, load_in_4bit=True)
prompt = "Write a quicksort algorithm in python"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=256, eos_token_id=tokenizer.eos_token_id, pad_token_id=tokenizer.pad_token_id)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
高度な使用法
以下は、モデルに特定のプロンプトを与えて、クイックソートアルゴリズムを生成する例です。
def generate_response(prompt):
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=256, eos_token_id=tokenizer.eos_token_id, pad_token_id=tokenizer.pad_token_id)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
return response
prompt = "can you write me a quicksort algorithm in python?"
print(generate_response(prompt))
🔧 技術詳細
モデルの評価結果
このモデルは、いくつかのベンチマークタスクで評価されており、以下のような結果が得られています。
メトリック |
値 |
平均 |
66.71 |
AI2 Reasoning Challenge (25-Shot) |
64.93 |
HellaSwag (10-Shot) |
85.81 |
MMLU (5-Shot) |
63.04 |
TruthfulQA (0-shot) |
63.77 |
Winogrande (5-shot) |
77.82 |
GSM8k (5-shot) |
44.88 |
量子化
このモデルは、4-bit AWQ を使用して量子化されています。
評価情報
- モデル評価ビット数: 4bit
- 評価日: 2024-01-24 15:03:08
- 所要時間: 37.4分
- プロンプト形式: Mistral
- モデル: macadeliccc/laser-dolphin-mixtral-4x7b-dpo
- スコア (v2): 71.04
- 解析可能値: 169.0
📚 詳細ドキュメント
引用情報
Fernando Fernandes NetoとEric Hartfordによる "Optimizing Large Language Models Using Layer-Selective Rank Reduction and Random Matrix Theory." 2024.
@article{sharma2023truth,
title={The Truth is in There: Improving Reasoning in Language Models with Layer-Selective Rank Reduction},
author={Sharma, Pratyusha and Ash, Jordan T and Misra, Dipendra},
journal={arXiv preprint arXiv:2312.13558},
year={2023} }
@article{gao2021framework,
title={A framework for few-shot language model evaluation},
author={Gao, Leo and Tow, Jonathan and Biderman, Stella and Black, Sid and DiPofi, Anthony and Foster, Charles and Golding, Laurence and Hsu, Jeffrey and McDonell, Kyle and Muennighoff, Niklas and others},
journal={Version v0. 0.1. Sept},
year={2021}
}
詳細な結果はこちらで確認できます。
📄 ライセンス
このプロジェクトは、Apache-2.0ライセンスの下で公開されています。