🚀 Hyperion-2.0-Mistral-7B
Hyperion-2.0-Mistral-7Bは、科学分野の高度な推論を目的としてHyperion-v2.0データセットで微調整された最先端の言語モデルです。複雑な質問や指示に対応でき、多様な科学分野のタスクを処理できます。

📚 詳細なドキュメント
🔍 モデルの詳細
属性 |
詳情 |
モデル名 |
Locutusque/Hyperion-2.0-Mistral-7B |
ベースモデル |
mistralai/Mistral-7B-v0.1 |
発行者 |
Locutusque |
モデルタイプ |
質問応答、会話型AI、コード生成、医療テキスト理解、数学的推論、論理的推論 |
言語 |
マルチドメイン、英語 |
ライセンス |
Apache-2.0 |
📖 モデルの説明
Locutusque/Hyperion-2.0-Mistral-7B
は、科学分野全体の高度な推論のためにHyperion-v2.0データセットで微調整された最先端の言語モデルです。このモデルは、Hyperionデータセットに含まれる多様で豊富な情報を活用して、複雑な問い合わせや指示を処理するように設計されています。主な使用例には、複雑な質問応答、会話理解、コード生成、医療テキスト理解、数学的推論、および論理的推論が含まれますが、これらに限定されません。
🎯 想定される用途
このモデルは、科学分野の難しい問題に取り組むための強力なツールを求める研究者や実践者を対象としています。以下のシナリオで使用できます。
- 科学、医学、数学、コンピュータサイエンスのAI駆動型チュータリングシステム。
- ドメイン固有の情報を迅速かつ正確に取得する必要がある専門家向けの支援ツール。
- 技術的および科学的推論に重点を置いた会話型AI機能を必要とするプラットフォーム。
- コード生成の自動化と複雑なプログラミングコンテキストの理解。
📊 学習データ
Locutusque/Hyperion-2.0-Mistral-7B
モデルは、Hyperion-v2.0データセットの750,000の例で微調整されました。このデータセットは、プログラミング、医療テキスト、数学問題、および推論タスクを含む多様で複雑なさまざまなデータセットを統合しています。
📈 評価結果
0-shot AGIEval
タスク |
バージョン |
フィルター |
n-shot |
指標 |
値 |
|
標準誤差 |
agieval_nous |
N/A |
none |
0 |
acc |
0.3602 |
± |
0.0929 |
|
|
none |
0 |
acc_norm |
0.3342 |
± |
0.0764 |
- agieval_aqua_rat |
1 |
none |
0 |
acc |
0.2402 |
± |
0.0269 |
|
|
none |
0 |
acc_norm |
0.2441 |
± |
0.0270 |
- agieval_logiqa_en |
1 |
none |
0 |
acc |
0.2965 |
± |
0.0179 |
|
|
none |
0 |
acc_norm |
0.3226 |
± |
0.0183 |
- agieval_lsat_ar |
1 |
none |
0 |
acc |
0.2348 |
± |
0.0280 |
|
|
none |
0 |
acc_norm |
0.2000 |
± |
0.0264 |
- agieval_lsat_lr |
1 |
none |
0 |
acc |
0.3667 |
± |
0.0214 |
|
|
none |
0 |
acc_norm |
0.3373 |
± |
0.0210 |
- agieval_lsat_rc |
1 |
none |
0 |
acc |
0.4981 |
± |
0.0305 |
|
|
none |
0 |
acc_norm |
0.4089 |
± |
0.0300 |
- agieval_sat_en |
1 |
none |
0 |
acc |
0.6359 |
± |
0.0336 |
|
|
none |
0 |
acc_norm |
0.5777 |
± |
0.0345 |
- agieval_sat_en_without_passage |
1 |
none |
0 |
acc |
0.3883 |
± |
0.0340 |
|
|
none |
0 |
acc_norm |
0.3544 |
± |
0.0334 |
- agieval_sat_math |
1 |
none |
0 |
acc |
0.3500 |
± |
0.0322 |
|
|
none |
0 |
acc_norm |
0.2682 |
± |
0.0299 |
グループ別
グループ |
バージョン |
フィルター |
n-shot |
指標 |
値 |
|
標準誤差 |
agieval_nous |
N/A |
none |
0 |
acc |
0.3602 |
± |
0.0929 |
|
|
none |
0 |
acc_norm |
0.3342 |
± |
0.0764 |
5-shot AGIEvalは近日公開予定です。
🔗 Quants
- ExLlamaV2: https://huggingface.co/bartowski/Hyperion-2.0-Mistral-7B-exl2
- GGUF: https://huggingface.co/bartowski/Hyperion-2.0-Mistral-7B-GGUF
- AWQ: https://huggingface.co/solidrust/Hyperion-2.0-Mistral-7B-AWQ
💻 使用例
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Locutusque/Hyperion-1.5-Mistral-7B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "<|im_start|>user\nWhat are the implications of Einstein's theory of relativity in modern physics?<|im_end|>\n<|im_start|>assistant\n"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
outputs = model.generate(input_ids, max_length=200, num_return_sequences=1, temperature=0.8, top_p=0.95, top_k=40, repetition_penalty=1.1)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
⚠️ 既知の制限事項
データセットの多様性により、データのフォーマットやアノテーションの品質の違いに起因するモデルの応答の不一致が発生する可能性があります。
このモデルは非常に柔軟で、あらゆる要求に応答します。エンタープライズレベルのデプロイメントで使用する予定の場合は、必ずDPOを使用してこのモデルを拡張してください。
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で公開されています。