Sapbert UMLS 2020AB All Lang From XLMR Large
S
Sapbert UMLS 2020AB All Lang From XLMR Large
Developed by cambridgeltl
SapBERTはxlm-roberta-largeベースモデルを使用し、UMLS 2020ABデータセットでトレーニングされた多言語バイオメディカルエンティティ表現モデルです。
Downloads 612
Release Time : 3/2/2022
Model Overview
SapBERTはバイオメディカル分野専用の多言語語彙意味表現モデルで、主にバイオメディカルエンティティリンキングタスクに使用されます。異なる言語のバイオメディカル用語を統一された意味空間にマッピングできます。
Model Features
多言語対応能力
XLM-RoBERTaアーキテクチャに基づき、多言語バイオメディカル用語処理をサポート
分野特化表現
バイオメディカル分野に特化してトレーニングされ、医学用語の意味表現を最適化
UMLS知識統合
UMLS 2020ABデータセットを使用してトレーニングされ、豊富なバイオメディカル知識を統合
Model Capabilities
バイオメディカル用語表現
多言語エンティティリンキング
意味的類似度計算
Use Cases
バイオメディカル情報検索
医学用語標準化
異なるソースの医学用語を標準用語体系にマッピング
医療データの一貫性と相互運用性の向上
多言語医学文献検索
異なる言語の医学文献で同一概念のドキュメントを検索
国際医学研究交流の促進
臨床意思決定支援
症状と疾患の関連分析
症状と潜在的な疾患間の意味的関連を識別
臨床診断意思決定の支援
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98