Biomednlp BiomedBERT Large Uncased Abstract
BiomedBERTはPubMedの抄録テキストを基にゼロから事前学習された生物医学分野向け大規模言語モデルで、生物医学自然言語処理タスクの性能向上に特化しています。
ダウンロード数 637
リリース時間 : 1/2/2023
モデル概要
このモデルは生物医学分野に最適化されたBERTバリアントで、汎用モデルの継続学習ではなくゼロからの事前学習により、生物医学NLPタスクでの性能を大幅に向上させています。
モデル特徴
ドメイン特化事前学習
PubMed抄録を基にゼロから事前学習を行い、汎用コーパスではなく生物医学分野に特化して最適化
性能向上
研究によると、生物医学分野ではゼロからの事前学習が汎用モデルの継続学習よりも大きな性能向上をもたらす
大規模モデル
BLURBベンチマーク性能に対する大規模モデルの影響を調査
モデル能力
生物医学テキスト理解
生物医学エンティティ認識
生物医学関係抽出
生物医学質問応答
使用事例
薬物研究
薬物作用機序分析
チロシンキナーゼ阻害剤の識別など、薬物作用機序を特定
薬物クラスと作用標的を正確に予測可能
医学文献処理
抄録理解と分析
PubMed抄録テキストを処理し、重要な医学情報を抽出
専門的な医学文献の内容を効率的に理解
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98