# 医療テキスト分析

Openbioner Base
MIT
OpenBioNERは、オープンドメインの生物医学命名エンティティ認識(NER)に特化した軽量BERTモデルで、対象エンティティタイプの自然言語記述のみで未見のエンティティタイプを識別でき、再トレーニングする必要がありません。
シーケンスラベリング 英語
O
disi-unibo-nlp
210
1
Gliner Biomed Base V1.0
Apache-2.0
GLiNER-生物医学版はGLiNERフレームワークを基に開発された専門的な生物医学固有表現認識モデルで、様々な生物医学エンティティタイプを識別できます。
シーケンスラベリング PyTorch 英語
G
Ihor
61
2
Gliner Biomed Small V1.0
Apache-2.0
GLiNER-バイオメディカル版はGLiNERフレームワークに基づく、バイオメディカル分野専用のオープンNER効率的モデルスイートで、バイオメディカルテキスト内の様々なエンティティを識別できます。
シーケンスラベリング 英語
G
Ihor
33
2
Gliner Multi Pii Domains V1
Apache-2.0
GLiNER は名前付きエンティティ認識(NER)モデルで、双方向Transformerエンコーダーを使用してあらゆる種類のエンティティを認識でき、特に個人識別情報(PII)の認識に適しています。
シーケンスラベリング 複数言語対応
G
E3-JSI
592
14
Bi Encoder Russian Msmarco
MIT
DeepPavlov/rubert-base-cased事前学習モデルを基に、MS-MARCOロシア語パッセージランキングデータセットで微調整されたsentence-transformersモデルで、ロシア語の非対称意味検索に使用されます。
テキスト埋め込み Transformers その他
B
DiTy
74.33k
6
En Biobert Ner Symptom
MIT
BioBERTをファインチューニングした固有表現認識モデルで、臨床記録から医学的症状を検出します。
シーケンスラベリング 英語
E
pmaitra
25
5
Negation Scope Detection SFU Spanish NLP CIC WFU DisTEMIST Fine Tuned
Apache-2.0
このモデルはajtamayoh/NER_EHR_Spanish_model_Mulitlingual_BERTを微調整したスペイン語否定範囲検出モデルです
シーケンスラベリング Transformers
N
ajtamayoh
15
0
Bert Large Cased Squad V1.1 Portuguese
MIT
BERTimbau Largeで訓練されたポルトガル語質問応答モデルで、SQuAD v1.1ポルトガル語版で微調整されており、ポルトガル語の質問応答タスクに適しています。
質問応答システム Transformers その他
B
pierreguillou
1,199
45
Wav2vec2 Xlsr Large 53 Kor Financial Engineering
これは汎用的なモデルの説明で、150字以内の簡潔な紹介です。
大規模言語モデル
W
Mads
19
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase