Medgemma 4b It Q8 0 GGUF
その他
MedGemma-4B-it-Q8_0-GGUF は google/medgemma-4b-it を基に変換された GGUF フォーマットのモデルで、医療分野の画像テキストからテキストへのタスク専用に設計されています。
画像生成テキスト
Transformers

M
NikolayKozloff
142
2
AKI 4B Phi 3.5 Mini
AKIはマルチモーダル基盤モデルで、LLM内の因果的注意メカニズムを解放することでクロスモーダル相互注意(MMA)を実現し、視覚と言語のミスアライメント問題を解決します。追加パラメータやトレーニング時間を増やす必要はありません。
画像生成テキスト 英語
A
Sony
25
27
Erax VL 7B V2.0 Preview
Apache-2.0
EraX-VL-7B-V2.0-Previewは、OCRと視覚的質問応答のために設計された強力なマルチモーダルモデルで、ベトナム語を含む複数言語の処理に優れ、医療用フォームや請求書などのドキュメント認識で特に優れた性能を発揮します。
画像生成テキスト
Transformers 複数言語対応

E
erax-ai
476
22
Genmedclip
MIT
GenMedClipはopen_clipライブラリを基にしたゼロショット画像分類モデルで、医療画像分析に特化しています。
画像分類
G
wisdomik
40
0
Xray Model
MIT
このモデルは骨年齢予測に使用され、YassinHegazy/xray-modelベースモデルに基づいて構築されています。
画像分類
X
YassinHegazy
29
0
Resnet 18 MRI Brain
ResNet18アーキテクチャに基づく脳MRI画像分類モデル、がん検出用
画像分類
Transformers

R
BehradG
38
1
Xrayclip Vit L 14 Laion2b S32b B82k
CheXagentは胸部X線画像の自動分析と解釈に特化した基礎モデルです。
画像生成テキスト
Transformers

X
StanfordAIMI
975
0
Skin Types Image Detection
Apache-2.0
Vision Transformer (ViT)アーキテクチャを使用した顔画像分類モデルで、乾燥肌、普通肌、脂性肌の3つの皮膚タイプを検出
画像分類
Transformers

S
dima806
776
11
Chexagent 8b
CheXagentは胸部レントゲンの解釈に使用される基礎モデルで、医療分野における胸部レントゲン画像の専門的な解釈を支援します。
画像生成テキスト
Transformers

C
StanfordAIMI
1,020
40
Dinov2 Base Finetuned SkinDisease
Apache-2.0
DINOv2ベースモデルを微調整した皮膚疾患分類モデルで、ISIC 2018+Atlas Dermatologyデータセットにおいて95.57%の精度を達成。
画像分類
Transformers

D
Jayanth2002
1,584
3
Segformer B0 Finetuned V0
その他
nvidia/mit-b0を基にtontokoton/artery-ultrasound-siitデータセットでファインチューニングした画像分割モデル
画像セグメンテーション
Transformers

S
Pavarissy
15
0
Segformer For Optic Disc Cup Segmentation
Apache-2.0
SegFormerアーキテクチャに基づく網膜眼底画像分割モデルで、視盤と視杯の正確な分割に特化しています。
画像セグメンテーション
Transformers

S
pamixsun
2,592
5
Efficientnet ParkinsonsPred
MIT
EfficientNetアーキテクチャに基づくパーキンソン病予測モデルで、患者の描画を分析して約83%の精度を実現
画像分類
Transformers その他

E
dhhd255
17
2
Diabetic Retinopathy 224 Procnorm Vit
Apache-2.0
GoogleのViTモデルを微調整し、糖尿病網膜症の分類タスクに使用し、正解率は74.31%です。
画像分類
Transformers

D
rafalosa
110
2
Clipmd
ClipMDはOpenAIのCLIPモデルを基に開発された医療画像テキストマッチングモデルで、スライディングウィンドウテキストエンコーダーを採用し、医療分野の画像分類タスクに特化しています。
画像生成テキスト
Transformers 英語

C
Idan0405
165
8
Autotrain Cxr Cfdl Repro 40197105212
これは自動トレーニングプロセスで構築された二値分類視覚モデルで、医療画像分類タスクに優れています。
画像分類
Transformers

A
katielink
16
0
Vit Mlo 512 Birads
Vision Transformerアーキテクチャに基づく画像分類モデルで、BIRADS分類タスク向けにファインチューニングされています
画像分類
Transformers

V
mm-ai
37
0
Resnet 50 Finetuned Brain Tumor
Apache-2.0
microsoft/resnet-50をファインチューニングした脳腫瘍画像分類モデルで、評価セットでの精度は91.71%
画像分類
Transformers

R
Alia-Mohammed
472
0
Swin Tiny Patch4 Window7 224 Finetuned Skin Cancer
Apache-2.0
Swin Transformerアーキテクチャに基づく微調整モデルで、皮膚癌画像分類タスク専用
画像分類
Transformers

S
MPSTME
18
0
Swin Tiny Patch4 Window7 224 Finetuned Skin Cancer
Apache-2.0
Swin Transformerアーキテクチャに基づくファインチューニングモデルで、皮膚癌画像分類タスク専用
画像分類
Transformers

S
dhairyakapadia
17
0
Autotrain Histopathological Image Classification 3393093039
これはAutoTrainで訓練された多クラス画像分類モデルで、組織病理学画像分類タスクに特化しています。
画像分類
Transformers

A
JoffreyMa
17
0
Vit Base Patch32 224 In21 Leicester Binary
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく二分類画像分類モデルで、特定のデータセットで微調整され高精度分類を実現
画像分類
Transformers

V
davanstrien
15
0
Swin Tiny Patch4 Window7 224 Finetuned Braintumordata
Apache-2.0
Swin Transformerアーキテクチャに基づく視覚モデルで、脳腫瘍画像分析のためにファインチューニングされています
画像分類
Transformers

S
surajjoshi
11
1
Check Gum Teeth
これはPyTorchとHuggingPicsを使用して構築された画像分類モデルで、歯茎の健康状態を検出するために特別に設計されています。
画像分類
Transformers

C
steven123
27
0
Swin Tiny Patch4 Window7 224 Finetuned Skin Cancer
Apache-2.0
このモデルはmicrosoft/swin-tiny-patch4-window7-224をファインチューニングした皮膚がん画像分類モデルで、精度は72.75%です。
画像分類
Transformers

S
gianlab
65
8
Densenet121 Res224 Chex
Apache-2.0
DenseNet121アーキテクチャの事前学習済みモデルで、胸部X線画像分類タスク専用に設計されており、18の出力目標を持ちます。
画像分類
Transformers

D
torchxrayvision
25
1
Pneumonia Test Attempt
これは肺炎予測のための画像分類モデルで、ビーレフェルト大学深層学習コースの課題用に準備されました。
画像分類
Transformers

P
eren23
35
0
Bert Cn
様々な自然言語タスクを処理できる多機能の大規模言語モデル
大規模言語モデル
Transformers

B
baicuya
14
0
Vision Transformer Fmri Classification Ft
Vision Transformerアーキテクチャに基づくfMRI画像分類モデル、HuggingPicsで自動生成
画像分類
Transformers

V
shivkumarganesh
82
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98