B

Biomistral 7B DARE AWQ QGS128 W4 GEMM

BioMistralによって開発
Mistralアーキテクチャに基づく医療分野のオープンソース大規模言語モデル、PubMed Centralテキストで継続事前学習
ダウンロード数 135
リリース時間 : 2/17/2024

モデル概要

BioMistralは医療健康分野に最適化されたオープンソース大規模言語モデルスイートで、Mistral-7Bアーキテクチャを基に、PubMed Centralのオープンアクセステキストで継続事前学習を行い、医学Q&Aタスクで優れた性能を発揮します。

モデル特徴

医療分野専門化
PubMed Centralの高品質医学文献で継続事前学習し、生物医学知識理解能力を強化
マルチモデル融合戦略
DARE/TIES/SLERPの3種類の融合バリアントモデルを提供し、モデル性能を向上
効率的な量子化バージョン
AWQ/BnBなど複数の量子化方法をサポート、最小4.68GBのVRAMで動作可能
多言語評価ベンチマーク
医療分野で初めて大規模な多言語(8言語)LLM評価を実施

モデル能力

医学Q&A
生物医学テキスト理解
医学知識推論
多言語医学テキスト処理

使用事例

医学教育
医学試験問題解答
USMLEなどの医学試験問題を解答
MedQAなどのベンチマークテストで多くのオープンソース医療モデルより高い精度
臨床研究支援
医学文献分析
研究者が医学文献内容を迅速に理解するのを支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase