Radbert RoBERTa 4m
R
Radbert RoBERTa 4m
zzxslpによって開発
RadBERT-RoBERTa-4mはRoBERTaアーキテクチャに基づく医学分野の言語モデルで、400万件の匿名化された医療レポートを使ってトレーニングされ、医学言語理解タスクで優れた性能を発揮します。
ダウンロード数 9,982
リリース時間 : 10/18/2022
モデル概要
このモデルは放射学レポートに特化して設計されており、異常文分類、レポートコーディング、レポート要約などのタスクを実行でき、医学自然言語処理分野で突出した性能を持っています。
モデル特徴
大規模な医学データによるトレーニング
400万件の匿名化された医療レポートを使ってトレーニングされ、豊富な医学知識を持っています。
専門分野の最適化
放射学レポートに特化して最適化されており、医学言語理解において汎用モデルよりも優れています。
多タスクサポート
異常検出、コーディング、要約などの様々な放射学レポート処理タスクをサポートします。
モデル能力
医学テキスト理解
異常検出
診断コーディング
レポート要約
使用事例
医療レポート処理
放射学レポートの異常検出
放射学レポート内の異常所見を自動的に識別します。
論文によると、異常文分類タスクで優れた性能を発揮します。
診断コーディングの自動化
放射学レポートに自動的に診断コードを割り当てます。
5種類の異なるコーディングシステムをサポートします。
レポート要約生成
検査結果の部分から重要な文を抽出します。
検査結果を効果的に要約することができます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98