Medgemma 4b It Q8 0 GGUF
その他
MedGemma-4B-it-Q8_0-GGUF は google/medgemma-4b-it を基に変換された GGUF フォーマットのモデルで、医療分野の画像テキストからテキストへのタスク専用に設計されています。
画像生成テキスト
Transformers

M
NikolayKozloff
142
2
Qwen3 0.6B Medical Expert
Apache-2.0
Qwen3-0.6Bを微調整した医学推論モデルで、臨床意思決定支援と医学教育のために設計されています
大規模言語モデル
Transformers 英語

Q
suayptalha
125
2
Citrus1.0 Llama 70B
Citrusは医学専門家の認知プロセスをシミュレートすることで、臨床専門知識とAI推論の間のギャップを埋める医療言語モデルです。
大規模言語モデル
Transformers

C
jdh-algo
2,401
13
Bert Symptom Checker
Apache-2.0
BERTをベースに構築され、MedTextデータセットでファインチューニングされたテキスト分類モデルで、ユーザーが報告した症状に基づいて潜在的な医療状態を予測します。
テキスト分類
Transformers 英語

B
Lech-Iyoko
60
1
GEM
Apache-2.0
GEMは心電時系列データ、12誘導心電画像、テキストを統合したマルチモーダル大規模言語モデルで、臨床的根拠に基づく心電解釈を実現します。
画像生成テキスト
Transformers

G
LANSG
247
2
Deepseek R1 Medical Distill Llama 8B
Apache-2.0
Llamaアーキテクチャを蒸留最適化した8Bパラメータ医療QAモデル、専門医学データによる微調整で臨床意思決定支援能力を向上
大規模言語モデル
D
zeewin-ai
39
2
Libra V1.0 3b
Apache-2.0
放射学レポート生成用の小型マルチモーダル言語モデルで、時間的比較を含む詳細な『所見』セクションを生成可能
画像生成テキスト
Transformers

L
X-iZhang
40
2
Deepseek R1 Medical Response
これはDeepSeek-R1をファインチューニングした医療分野のQ&Aモデルで、医療関連のテキスト生成タスクに特化しています。
大規模言語モデル
Transformers 英語

D
beita6969
28
2
Deepseek R1 Medical COT
Apache-2.0
DeepSeek-R1-Distill-Llama-8Bモデルをファインチューニングした医学推論モデルで、思考連鎖推論と臨床意思決定能力を最適化
大規模言語モデル
Transformers 英語

D
emredeveloper
116
18
Bio Medical Llama 3 8B CoT 012025
その他
Bio-Medical-Llama-3-8BとDeepseek蒸留版Llama 8Bを基にしたファインチューニング版で、思考連鎖(COT)命令セットを導入することで高度な推論能力を実現し、医療健康と生命科学分野に特化しています。
大規模言語モデル
Transformers

B
ContactDoctor
159
27
Bio Medical Llama 3 2 1B CoT 012025
その他
Llama-3.2-1B-Instructをファインチューニングした生物医学専用モデルで、62.5万の学習データサンプルを含み、特に2.5万件の思考連鎖(CoT)指導サンプルを追加して推論能力を強化
大規模言語モデル
Transformers

B
ContactDoctor
3,941
29
Llama3.1 Aloe Beta 8B
Llama3.1-Aloe-Beta-8Bはオープンソースの医療大規模言語モデルで、多くの医療タスクにおいて最先端の性能を達成しています。
大規模言語モデル
Transformers 英語

L
HPAI-BSC
3,243
13
PULSE 7B
Apache-2.0
心電図(ECG)画像解読のために特別に設計されたマルチモーダル大規模言語モデル(MLLM)。多様なデータソースからのECG関連タスクを処理可能。
画像生成テキスト
Safetensors 英語
P
PULSE-ECG
21.81k
18
Bio Medical MultiModal Llama 3 8B V1
その他
Llama-3-8B-Instructをファインチューニングしたマルチモーダルバイオメディカルモデルで、テキストと画像処理をサポートし、バイオメディカル分野の研究と臨床応用に適しています。
画像生成テキスト
Transformers

B
ContactDoctor
1,440
122
Bio Medical Llama 3 8B
その他
Bio-Medical-Llama-3-8BはLlama-3-8B-Instructを微調整した高性能生物医学言語モデルで、広範な生物医学テーマをカバーするように設計されています。
大規模言語モデル
Transformers

B
ContactDoctor
11.74k
84
Meditron3 8B
臨床医学に特化した大規模言語モデルで、特に資源不足地域や人道環境に焦点を当てています
大規模言語モデル
Transformers 英語

M
OpenMeditron
1,282
16
Merlin
MIT
マーリンはコンピュータ断層撮影向けの3D視覚言語モデルで、構造化電子健康記録と非構造化放射線レポートを同時に利用して事前学習を行います。
テキスト生成画像 英語
M
stanfordmimi
2,418
6
Palmyra Med 70B 32K
その他
Palmyra-Med-70B-32kはWriterが医療健康分野向けに開発した大規模言語モデルで、32kのコンテキストウィンドウを持ち、生物医学ベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

P
Writer
44
106
Palmyra Med 70B
その他
Palmyra-MedはWriterが医療健康分野向けに設計した大規模言語モデルで、生物医学ベンチマークテストで優れた成績を収め、多くの主流モデルをリードしています。
大規模言語モデル
Transformers 複数言語対応

P
Writer
50
80
JSL MedPhi2 2.7B
John Snow Labsが開発した医療分野向け大規模言語モデル、Microsoft Phi-2アーキテクチャを基に最適化
大規模言語モデル
Transformers その他

J
johnsnowlabs
3,050
3
Chexagent 2 3b
CheXagentは胸部X線読影に特化した基礎モデルで、医療画像解析を支援することを目的としています。
画像生成テキスト
Transformers その他

C
StanfordAIMI
28.72k
4
Radialog Interactive Radiology Report Generation
Apache-2.0
マルチモーダルTransformerベースの放射線学レポート生成および医療対話システムで、胸部X線画像を分析し関連レポートを生成または医学的質問に回答できます。
画像生成テキスト
Transformers

R
ChantalPellegrini
171
10
Chexpert Mimic Cxr Impression Baseline
MIT
これは胸部X線画像に基づくテキスト生成モデルで、医学画像から放射線学的所見レポートを生成できます。
画像生成テキスト
Transformers 英語

C
IAMJB
52.87k
0
Llama3 OpenBioLLM 70B
OpenBioLLM-70Bは生物医学分野向けに設計された先進的なオープンソース言語モデルで、Meta-Llama-3-70B-Instructを微調整しており、生物医学タスクで卓越した性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

L
aaditya
18.35k
428
Base 7b V0.2
Apache-2.0
医師によってトレーニングされた大規模医療分野言語モデル、MedQA(USMLE)試験で60%以上の合格点を達成した初の7bモデル
大規模言語モデル
Transformers 英語

B
internistai
91
60
Radphi 2
CheXagentは胸部X線読影に特化した基盤モデルで、医療画像解析の精度と効率を向上させることを目的としています。
画像生成テキスト
Transformers その他

R
StanfordAIMI
57
1
Xraysiglip Vit L 16 Siglip 384 Webli
CheXagentは胸部X線画像の解読に使用される基盤モデルで、自動的に胸部X線画像を分析・解読できます。
画像分類
Transformers

X
StanfordAIMI
30.17k
0
Xrayclip Vit B 16 Siglip 512 Webli
CheXagentは胸部X線画像の解読に特化した基盤モデルで、先進的なAI技術により医療画像解析の精度と効率を向上させることを目的としています。
画像分類
Transformers

X
StanfordAIMI
748
0
Xraysiglip Vit B 16 Siglip 512 Webli
CheXagentは胸部X線解釈に特化した基礎モデルで、先進的な視覚言語処理技術により医学画像解析の精度と効率を向上させることを目的としています。
画像分類
Transformers

X
StanfordAIMI
205
0
Xrayclip Vit B 16 Laion2b S34b B88k
CheXagentは胸部X線画像解釈に特化した基盤モデルで、先進的なAI技術による医療画像解析支援を目的としています。
画像生成テキスト
Transformers

X
StanfordAIMI
47.09k
3
Xrayclip Vit L 14 Laion2b S32b B82k
CheXagentは胸部X線画像の自動分析と解釈に特化した基礎モデルです。
画像生成テキスト
Transformers

X
StanfordAIMI
975
0
Radllama 7b
RadLLaMA-7bはスタンフォードAIMIチームが開発した放射学領域向けの基礎言語モデルで、LLaMA2アーキテクチャを基にしています。
大規模言語モデル
Transformers

R
StanfordAIMI
82.89k
2
Meditron 7b
Meditron-7Bは70億パラメータを持つオープンソースの医療大規模言語モデルで、医療コーパスを用いてLlama-2-7Bから適応され、多くの医療推論タスクで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

M
epfl-llm
5,293
274
Med42 70B GGUF
その他
Med42 70Bはアラブ首長国連邦のM42 Healthが開発した医療アシスタントモデルで、医療健康分野のテキスト生成タスクに特化しています。
大規模言語モデル 英語
M
TheBloke
1,854
22
Med42 70b
その他
Med42はM42が開発した700億パラメータの臨床大規模言語モデルで、LLaMA-2アーキテクチャを基盤とし、医学知識の質問応答と臨床意思決定支援に特化しています。
大規模言語モデル
Transformers 英語

M
m42-health
28
176
Clinicalt5 PET Impression
これはPET検査所見の要約に特化したファインチューニング版Clinical-T5モデルで、PET検査所見に基づいて個別化された臨床印象を自動生成できます。
大規模言語モデル
Transformers 英語

C
xtie
17
0
Clinicalcamel 70B
臨床ラクダはLLaMA-2 70Bアーキテクチャをベースに、QLoRAファインチューニングを施したオープンソースの大規模言語モデルで、医学および臨床研究分野に特化しています。
大規模言語モデル
Transformers 英語

C
wanglab
2,855
46
Biobart Radiology Summarization
BioBartベースのシーケンス・ツー・シーケンスモデルで、放射学的所見を印象にまとめるために使用され、70,000件の放射学レポートでトレーニングされています。
テキスト生成
Transformers 英語

B
hamzamalik11
28
0
Clinicalgpt Base Zh
臨床シナリオ向けに設計・最適化された大規模言語モデル。多様な医療データセットでファインチューニング済み
大規模言語モデル
Transformers

C
medicalai
3,158
50
Medllama 13B
Apache-2.0
MedLLaMA_13BはLLaMA-13bアーキテクチャをベースに、一部の医療コーパスでファインチューニングされた医療分野向け大規模言語モデルです。
大規模言語モデル
Transformers 英語

M
chaoyi-wu
212
37
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98