Llama Medx V3.2
L
Llama Medx V3.2
skumar9によって開発
Llama-medx_v3.2 は医療分野に特化して微調整された大規模言語モデルで、Meta-Llama-3.1-8B アーキテクチャを基に開発され、教師あり微調整(SFT)とオッズ比選好最適化(ORPO)技術によって訓練され、医学用語と臨床推論能力を正確に習得しています。
ダウンロード数 5,677
リリース時間 : 5/4/2024
モデル概要
このモデルは医療分野に特化して最適化されており、医学多肢選択問題などのシナリオを効率的に処理でき、臨床推論や医学用語の理解に適しています。
モデル特徴
医療分野特化最適化
教師あり微調整(SFT)とオッズ比選好最適化(ORPO)技術によって訓練され、医学用語と臨床推論能力を正確に習得しています。
効率的な学習
細やかなハイパーパラメータ調整戦略を採用し、破滅的忘却を防止し、マルチタスクシナリオでの安定したパフォーマンスを保証します。
医学多肢選択問題最適化
ベースモデルは特化して最適化されており、医学多肢選択問題シナリオに効率的に対応できます。
モデル能力
医療テキスト生成
臨床推論
医学Q&A
医学用語理解
使用事例
臨床診断サポート
疾患リスク評価
患者の症状と遺伝子検査結果に基づいて、特定の疾患の発症リスクを評価します。
正確な疾患リスク評価結果を提供します
医学教育
医学多肢選択問題解答
医学関連の多肢選択問題に解答し、医学生が複雑な医学概念を学び理解するのを支援します。
正確な解答と説明を提供します
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98