Radbert
R
Radbert
StanfordAIMIによって開発
RadBERTはBioBERTで初期化された放射線学領域専用のBERTモデルで、放射線学レポートデータで継続的に事前学習されており、生物医学および放射線学領域の自然言語処理タスクに適しています。
ダウンロード数 1,749
リリース時間 : 5/4/2022
モデル概要
RadBERTはBERTアーキテクチャに基づくトランスフォーマーモデルで、生物医学および放射線学領域のテキスト処理に特化して最適化されています。放射線学レポートの専門用語や文脈関係を処理できます。
モデル特徴
ドメイン特化事前学習
BioBERTで初期化され、放射線学レポートデータで継続的に事前学習されており、生物医学および放射線学領域のテキスト処理能力が最適化されています。
多様なトレーニングデータ
トレーニングデータにはWikipedia、書籍コーパス、PubMed文献データベース、放射線レポートライブラリが含まれており、モデルの汎化能力を強化しています。
大文字小文字区別なし
モデルは大文字小文字を区別せず、医学テキストでよく見られる大文字小文字混在の処理に優れています。
モデル能力
放射学テキスト穴埋め
生物医学テキスト理解
放射学レポート分析
使用事例
医療診断支援
放射線レポート自動補完
放射線科医がレポート作成を迅速に行えるよう支援し、一般的な用語や記述を自動的に埋めます。
レポート作成効率が向上し、手入力エラーが減少
COVID-19診断推論
多機関の放射線レポートからCOVID-19の存在可能性を推論します。
関連研究で良好な推論性能を示しました
医学研究
医学文献分析
PubMedなどの医学文献データベースの専門テキストを処理・分析します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98