Deepseek R1 Medical CoT
D
Deepseek R1 Medical CoT
zijiechen156によって開発
DeepSeek-R1-Distill-Llama-8Bをファインチューニングした医療思考連鎖推論モデルで、QLoRA量子化技術とUnsloth最適化手法により医療推論能力を強化。
ダウンロード数 49
リリース時間 : 3/3/2025
モデル概要
医療思考連鎖(CoT)推論に最適化されたファインチューニングモデルで、医療質問応答や推論タスクに適しています。
モデル特徴
医療思考連鎖推論最適化
医療分野の思考連鎖(CoT)プロンプトに特化して最適化し、複雑な医療問題の推論能力を強化。
効率的なファインチューニング技術
QLoRA量子化技術とUnsloth最適化手法を採用し、限られたハードウェアリソースで効率的なファインチューニングを実現。
医学用語サポート
医学用語の理解と生成能力を特別に最適化。
モデル能力
医療質問応答
思考連鎖推論
医学用語処理
使用事例
医療相談
症状分析
患者が説明する初期症状を分析し、可能性のある疾患を推論
治療方針提案
患者の状態に基づいて初期治療提案を提供
医学教育
医学用語解説
医学生に複雑な医学用語や概念を解説
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98