Clinical BigBird
C
Clinical BigBird
Developed by yikuan8
BigBirdアーキテクチャを基盤とし、MIMIC-III臨床記録でさらに事前学習を行った医学知識強化モデル。4096トークンの入力長をサポートし、複数の医学NLPタスクでClinicalBERTを上回る性能を発揮。
Downloads 2,320
Release Time : 4/1/2022
Model Overview
臨床版BigBirdは医学領域に最適化された自然言語処理モデルで、臨床記録の事前学習により医学知識理解能力を強化し、様々な医学テキスト処理タスクに適用可能。
Model Features
長文処理能力
最大4096トークンの入力長をサポートし、長い臨床記録の処理に適している
医学知識強化
MIMIC-III臨床記録による追加事前学習で医学領域の理解能力を強化
マルチタスク性能の優位性
10のベンチマークデータセットでClinicalBERTモデルを全面的に上回る
効率的な学習
FP16精度での並列学習を採用し、32GB Tesla V100 GPU6枚で完了
Model Capabilities
医学テキスト理解
臨床記録分析
医学固有表現認識
医学質問応答システム
医学テキスト分類
医学自然言語推論
Use Cases
臨床情報処理
電子カルテ分析
長い臨床記録から重要な医療情報を抽出
4096トークンまでの臨床テキストを効率的に処理
医学エンティティ認識
診療記録中の疾患、薬剤などの医療エンティティを識別
ClinicalBERTを上回る性能
医学研究支援
医学文献分析
長文の医学研究文献を処理・分析
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98