Q

Quilt Llava V1.5 7b

wisdomikによって開発
Quilt-LLaVAは、組織病理学教育ビデオ画像とGPT生成のマルチモーダル命令追従データに基づき、LLaMA/Vicunaをファインチューニングしたオープンソースのチャットボットです。
ダウンロード数 618
リリース時間 : 2/2/2024

モデル概要

Quilt-LLaVAは、組織病理学分野に特化したマルチモーダルモデルで、視覚命令チューニングを通じて画像とテキストの相互作用を実現します。

モデル特徴

マルチモーダル命令追従
画像とテキストの相互作用をサポートし、画像に基づいて関連するテキスト記述を生成したり、関連する質問に回答したりできます。
組織病理学専用
組織病理学分野に特化しており、医学研究や教育に適しています。
オープンソースモデル
オープンソースモデルLLaMA/Vicunaをファインチューニングしており、研究や拡張が容易です。

モデル能力

テキスト生成
視覚質問応答
マルチモーダル相互作用

使用事例

医学研究
組織病理学画像分析
組織病理学画像を分析し、関連する記述や診断提案を生成します。
教育
医学教育補助
医学教育における画像解釈や質問応答の補助に使用されます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase