Hyperion 3.0 Mistral 7B DPO
Mistral-7BベースのDPO最適化モデル、Q&A、コード生成及び多分野推論タスクに優れる
ダウンロード数 15
リリース時間 : 3/24/2024
モデル概要
直接選好最適化(DPO)技術で微調整された高性能言語モデル、複雑な推論、プログラミング補助及び専門分野問題解決に特化
モデル特徴
DPO最適化
GPT-4生成の20,000組高品質選好ペアデータを使用した直接選好最適化
多分野能力
STEM、社会科学及び人文科学分野で優れたパフォーマンスを発揮
専門的推論
数学的導出と論理的推論能力を特別強化、複雑な科学問題を処理可能
モデル能力
テキスト生成
技術Q&A
コード生成
医学テキスト分析
数学問題解決
論理的推論
マルチターン対話
使用事例
教育
物理学教育補助
力学問題を解析し微分方程式を構築
例示通り投射体運動方程式を完全導出可能
ソフトウェア開発
コード生成
自然言語記述に基づき実行可能コードを生成
医療
医学テキスト分析
専門医学文献を解析しキー情報を抽出
🚀 Hyperion-3.0-Mistral-7B-DPO
このモデルは、質問応答、会話型AI、コード生成、医学テキスト理解、数学的推論、論理的推論など、幅広い複雑なタスクで優れた性能を発揮する高度な言語モデルです。
🚀 クイックスタート
このモデルを使用するには、以下のPythonコードを参考にしてください。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Locutusque/Hyperion-3.0-Mistral-7B-DPO"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# For a text generation task
input_text = "<|im_start|>user\nExplain the implications of quantum entanglement in layman's terms.<|im_end|>\n<|im_start|>assistant\n"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate a response
outputs = model.generate(input_ids, max_length=200, do_sample=True, top_p=0.7, top_k=6
✨ 主な機能
- 質問応答、会話型AI、コード生成、医学テキスト理解、数学的推論、論理的推論など、多様なタスクに対応
- Direct Preference Optimization (DPO) を使用して微調整され、人間の好みに合わせた出力が可能
📦 モデル詳細
属性 | 详情 |
---|---|
モデル名 | Locutusque/Hyperion-3.0-Mistral-7B-DPO |
ベースモデル | mistralai/Mistral-7B-v0.1 |
発行者 | Locutusque |
モデルタイプ | 質問応答、会話型AI、コード生成、医学テキスト理解、数学的推論、論理的推論 |
言語 | マルチドメイン、英語 |
ライセンス | Apache-2.0 |
📚 モデル説明
Locutusque/Hyperion-3.0-Mistral-7B-DPO
は、Direct Preference Optimization (DPO) を使用して、20,000の質の高い選好ペアのデータセットで微調整された高度な言語モデルです。これらの例は、GPT-4によって生成され、例外的な品質と関連性が保証されています。このモデルは、質問応答、会話型AI、コード生成、医学テキスト理解、数学的推論、論理的推論など、幅広い複雑なタスクで優れた性能を発揮するように設計されています。
📚 意図された使用方法
このモデルは、様々なドメインの難しい問題を解決するために、高度な能力と信頼性の高い言語モデルを求める研究者、開発者、組織を対象としています。潜在的な使用例は以下の通りです。
- 科学、医学、数学、コンピュータサイエンスのインテリジェントチュータリングシステムや教育アプリケーション
- 技術サポート、カスタマーサービス、ドメイン固有のチャットボットの高度な会話型AI
- ソフトウェア開発やプログラミング支援のためのコード生成と分析ツール
- 医療関係者や研究者のための医学テキスト分析と情報検索
- 学界や産業界のための数学的問題解決と論理的推論アプリケーション
📚 学習データ
Locutusque/Hyperion-3.0-Mistral-7B-DPO
モデルは、20,000の選好ペアのデータセットで微調整され、そのうち4,000の例が微調整に使用されました。これらの例は、GPT-4によって生成され、プログラミング、医学テキスト、数学的問題、推論タスクなど、様々なドメインで最高の品質と関連性が保証されています。学習データは、Direct Preference Optimization (DPO) を使用してさらに最適化され、モデルの出力を人間の好みに合わせ、全体的な性能を向上させました。
📚 量子化モデル
- ExLlamaV2: https://huggingface.co/bartowski/Hyperion-3.0-Mistral-7B-DPO-exl2
- GGUF: https://huggingface.co/bartowski/Hyperion-3.0-Mistral-7B-DPO-GGUF
📚 評価結果
mmlu flan cot 5-shot
タスク | バージョン | フィルター | n-shot | メトリック | 値 | ± | 標準誤差 |
---|---|---|---|---|---|---|---|
mmlu_flan_cot_fewshot | N/A | get-answer | 0 | exact_match | 0.5833 | ± | 0.0118 |
- mmlu_flan_cot_fewshot_humanities | N/A | get-answer | 0 | exact_match | 0.5039 | ± | 0.0205 |
- mmlu_flan_cot_fewshot_formal_logic | 0 | get-answer | 0 | exact_match | 0.2143 | ± | 0.1138 |
- mmlu_flan_cot_fewshot_high_school_european_history | 0 | get-answer | 0 | exact_match | 0.6667 | ± | 0.1143 |
- mmlu_flan_cot_fewshot_high_school_us_history | 0 | get-answer | 0 | exact_match | 0.7727 | ± | 0.0914 |
- mmlu_flan_cot_fewshot_high_school_world_history | 0 | get-answer | 0 | exact_match | 0.5385 | ± | 0.0997 |
- mmlu_flan_cot_fewshot_international_law | 0 | get-answer | 0 | exact_match | 0.9231 | ± | 0.0769 |
- mmlu_flan_cot_fewshot_jurisprudence | 0 | get-answer | 0 | exact_match | 0.5455 | ± | 0.1575 |
- mmlu_flan_cot_fewshot_logical_fallacies | 0 | get-answer | 0 | exact_match | 0.7778 | ± | 0.1008 |
- mmlu_flan_cot_fewshot_moral_disputes | 0 | get-answer | 0 | exact_match | 0.5526 | ± | 0.0817 |
- mmlu_flan_cot_fewshot_moral_scenarios | 0 | get-answer | 0 | exact_match | 0.4000 | ± | 0.0492 |
- mmlu_flan_cot_fewshot_philosophy | 0 | get-answer | 0 | exact_match | 0.7647 | ± | 0.0738 |
- mmlu_flan_cot_fewshot_prehistory | 0 | get-answer | 0 | exact_match | 0.6571 | ± | 0.0814 |
- mmlu_flan_cot_fewshot_professional_law | 0 | get-answer | 0 | exact_match | 0.3294 | ± | 0.0362 |
- mmlu_flan_cot_fewshot_world_religions | 0 | get-answer | 0 | exact_match | 0.8947 | ± | 0.0723 |
- mmlu_flan_cot_fewshot_other | N/A | get-answer | 0 | exact_match | 0.6833 | ± | 0.0244 |
- mmlu_flan_cot_fewshot_business_ethics | 0 | get-answer | 0 | exact_match | 0.9091 | ± | 0.0909 |
- mmlu_flan_cot_fewshot_clinical_knowledge | 0 | get-answer | 0 | exact_match | 0.5862 | ± | 0.0931 |
- mmlu_flan_cot_fewshot_college_medicine | 0 | get-answer | 0 | exact_match | 0.6364 | ± | 0.1050 |
- mmlu_flan_cot_fewshot_global_facts | 0 | get-answer | 0 | exact_match | 0.6000 | ± | 0.1633 |
- mmlu_flan_cot_fewshot_human_aging | 0 | get-answer | 0 | exact_match | 0.6087 | ± | 0.1041 |
- mmlu_flan_cot_fewshot_management | 0 | get-answer | 0 | exact_match | 0.9091 | ± | 0.0909 |
- mmlu_flan_cot_fewshot_marketing | 0 | get-answer | 0 | exact_match | 0.8000 | ± | 0.0816 |
- mmlu_flan_cot_fewshot_medical_genetics | 0 | get-answer | 0 | exact_match | 1.0000 | ± | 0.0000 |
- mmlu_flan_cot_fewshot_miscellaneous | 0 | get-answer | 0 | exact_match | 0.8023 | ± | 0.0432 |
- mmlu_flan_cot_fewshot_nutrition | 0 | get-answer | 0 | exact_match | 0.6667 | ± | 0.0833 |
- mmlu_flan_cot_fewshot_professional_accounting | 0 | get-answer | 0 | exact_match | 0.4839 | ± | 0.0912 |
- mmlu_flan_cot_fewshot_professional_medicine | 0 | get-answer | 0 | exact_match | 0.5806 | ± | 0.0901 |
- mmlu_flan_cot_fewshot_virology | 0 | get-answer | 0 | exact_match | 0.3889 | ± | 0.1182 |
- mmlu_flan_cot_fewshot_social_sciences | N/A | get-answer | 0 | exact_match | 0.7003 | ± | 0.0239 |
- mmlu_flan_cot_fewshot_econometrics | 0 | get-answer | 0 | exact_match | 0.4167 | ± | 0.1486 |
- mmlu_flan_cot_fewshot_high_school_geography | 0 | get-answer | 0 | exact_match | 0.9091 | ± | 0.0627 |
- mmlu_flan_cot_fewshot_high_school_government_and_politics | 0 | get-answer | 0 | exact_match | 0.8095 | ± | 0.0878 |
- mmlu_flan_cot_fewshot_high_school_macroeconomics | 0 | get-answer | 0 | exact_match | 0.6512 | ± | 0.0735 |
- mmlu_flan_cot_fewshot_high_school_microeconomics | 0 | get-answer | 0 | exact_match | 0.5769 | ± | 0.0988 |
- mmlu_flan_cot_fewshot_high_school_psychology | 0 | get-answer | 0 | exact_match | 0.9000 | ± | 0.0391 |
- mmlu_flan_cot_fewshot_human_sexuality | 0 | get-answer | 0 | exact_match | 0.6667 | ± | 0.1421 |
- mmlu_flan_cot_fewshot_professional_psychology | 0 | get-answer | 0 | exact_match | 0.6522 | ± | 0.0578 |
- mmlu_flan_cot_fewshot_public_relations | 0 | get-answer | 0 | exact_match | 0.5833 | ± | 0.1486 |
- mmlu_flan_cot_fewshot_security_studies | 0 | get-answer | 0 | exact_match | 0.4074 | ± | 0.0964 |
- mmlu_flan_cot_fewshot_sociology | 0 | get-answer | 0 | exact_match | 0.8182 | ± | 0.0842 |
- mmlu_flan_cot_fewshot_us_foreign_policy | 0 | get-answer | 0 | exact_match | 0.7273 | ± | 0.1408 |
- mmlu_flan_cot_fewshot_stem | N/A | get-answer | 0 | exact_match | 0.4866 | ± | 0.0262 |
- mmlu_flan_cot_fewshot_abstract_algebra | 0 | get-answer | 0 | exact_match | 0.0909 | ± | 0.0909 |
- mmlu_flan_cot_fewshot_anatomy | 0 | get-answer | 0 | exact_match | 0.4286 | ± | 0.1373 |
- mmlu_flan_cot_fewshot_astronomy | 0 | get-answer | 0 | exact_match | 0.5625 | ± | 0.1281 |
- mmlu_flan_cot_fewshot_college_biology | 0 | get-answer | 0 | exact_match | 0.5000 | ± | 0.1291 |
- mmlu_flan_cot_fewshot_college_chemistry | 0 | get-answer | 0 | exact_match | 0.5000 | ± | 0.1890 |
- mmlu_flan_cot_fewshot_college_computer_science | 0 | get-answer | 0 | exact_match | 0.2727 | ± | 0.1408 |
- mmlu_flan_cot_fewshot_college_mathematics | 0 | get-answer | 0 | exact_match | 0.3636 | ± | 0.1521 |
- mmlu_flan_cot_fewshot_college_physics | 0 | get-answer | 0 | exact_match | 0.3636 | ± | 0.1521 |
- mmlu_flan_cot_fewshot_computer_security | 0 | get-answer | 0 | exact_match | 0.7273 | ± | 0.1408 |
- mmlu_flan_cot_fewshot_conceptual_physics | 0 | get-answer | 0 | exact_match | 0.6538 | ± | 0.0951 |
- mmlu_flan_cot_fewshot_electrical_engineering | 0 | get-answer | 0 | exact_match | 0.7500 | ± | 0.1118 |
- mmlu_flan_cot_fewshot_elementary_mathematics | 0 | get-answer | 0 | exact_match | 0.7317 | ± | 0.0701 |
- mmlu_flan_cot_fewshot_high_school_biology | 0 | get-answer | 0 | exact_match | 0.5938 | ± | 0.0882 |
- mmlu_flan_cot_fewshot_high_school_chemistry | 0 | get-answer | 0 | exact_match | 0.3636 | ± | 0.1050 |
- mmlu_flan_cot_fewshot_high_school_computer_science | 0 | get-answer | 0 | exact_match | 0.5556 | ± | 0.1757 |
- mmlu_flan_cot_fewshot_high_school_mathematics | 0 | get-answer | 0 | exact_match | 0.3103 | ± | 0.0874 |
- mmlu_flan_cot_fewshot_high_school_physics | 0 | get-answer | 0 | exact_match | 0.2353 | ± | 0.1060 |
- mmlu_flan_cot_fewshot_high_school_statistics | 0 | get-answer | 0 | exact_match | 0.3043 | ± | 0.0981 |
- mmlu_flan_cot_fewshot_machine_learning | 0 | get-answer | 0 | exact_match | 0.4545 | ± | 0.1575 |
グループ別
グループ | バージョン | フィルター | n-shot | メトリック | 値 | ± | 標準誤差 |
---|---|---|---|---|---|---|---|
mmlu_flan_cot_fewshot | N/A | get-answer | 0 | exact_match | 0.5833 | ± | 0.0118 |
- mmlu_flan_cot_fewshot_humanities | N/A | get-answer | 0 | exact_match | 0.5039 | ± | 0.0205 |
- mmlu_flan_cot_fewshot_other | N/A | get-answer | 0 | exact_match | 0.6833 | ± | 0.0244 |
- mmlu_flan_cot_fewshot_social_sciences | N/A | get-answer | 0 | exact_match | 0.7003 | ± | 0.0239 |
- mmlu_flan_cot_fewshot_stem | N/A | get-answer | 0 | exact_match | 0.4866 | ± | 0.0262 |
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。
Phi 2 GGUF
その他
Phi-2はマイクロソフトが開発した小型ながら強力な言語モデルで、27億のパラメータを持ち、効率的な推論と高品質なテキスト生成に特化しています。
大規模言語モデル 複数言語対応
P
TheBloke
41.5M
205
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
Roberta Base
MIT
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
大規模言語モデル 英語
R
FacebookAI
9.3M
488
Opt 125m
その他
OPTはMeta AIが公開したオープンプリトレーニングトランスフォーマー言語モデルスイートで、パラメータ数は1.25億から1750億まであり、GPT-3シリーズの性能に対抗することを目指しつつ、大規模言語モデルのオープンな研究を促進するものです。
大規模言語モデル 英語
O
facebook
6.3M
198
1
transformersライブラリに基づく事前学習モデルで、様々なNLPタスクに適用可能
大規模言語モデル
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5ベーシック版はGoogleによって開発されたテキスト-to-テキスト変換Transformerモデルで、パラメータ規模は2.2億で、多言語NLPタスクをサポートしています。
大規模言語モデル 複数言語対応
T
google-t5
5.4M
702
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98