# 医療エンティティ認識

Adebert
Apache-2.0
adeBERTはBERT-largeアーキテクチャをファインチューニングしたモデルで、特定領域タスクに特化しており、評価セットで優れた性能を発揮します。
大規模言語モデル Transformers
A
Jacobberk
25
1
Medialbertina Pt Pt 900m
MIT
初の、実際のヨーロッパポルトガル語データを基に訓練された公開可能な医療言語モデル
大規模言語モデル Transformers その他
M
portugueseNLP
70
7
Bert Base Chinese Medical Ner
BERTベースの中国語医療分野固有表現認識モデルで、医療テキスト内の専門エンティティを識別できます。
シーケンスラベリング Transformers 複数言語対応
B
iioSnail
399
10
Drbert 7GB
Apache-2.0
DrBERTは、フランス語の医療テキストのオープンソースコーパスNACHOSを基に訓練されたフランス語のRoBERTaモデルで、生物医学と臨床分野に特化しています。
大規模言語モデル Transformers フランス語
D
Dr-BERT
4,781
13
Bsc Bio Es
Apache-2.0
スペイン語の生物医学分野向けに設計された事前学習済み言語モデルで、臨床NLPタスクに適しています
大規模言語モデル Transformers スペイン語
B
PlanTL-GOB-ES
162
5
Bert Fine Tuned Medical Insurance Ner
Apache-2.0
bert-base-casedをファインチューニングした医療保険分野の固有表現認識モデル
シーケンスラベリング Transformers
B
JustAdvanceTechonology
35
4
Bio ClinicalBERT
MIT
Bio+Clinical BERTはBioBERTから初期化された臨床BERTモデルで、MIMIC IIIのすべてのノートで訓練されており、生物医学および臨床テキスト処理に適しています。
大規模言語モデル 英語
B
emilyalsentzer
2.0M
334
En Core Med7 Trf
MIT
en_core_med7_trf は spaCy ベースの臨床自然言語処理モデルで、電子健康記録から薬物関連の固有表現を識別・分類するために特別に設計されています。
シーケンスラベリング 英語
E
kormilitzin
497
12
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase