Biobert Base Cased V1.2 Finetuned Ner
BioBERT v1.2をjnlpbaデータセットでファインチューニングした固有表現認識モデルで、生物医学テキスト処理に特化
ダウンロード数 83
リリース時間 : 3/2/2022
モデル概要
このモデルは生物医学分野の固有表現認識タスク向けに最適化されたBERTモデルで、生物医学文献中の専門的なエンティティを識別可能
モデル特徴
生物医学分野最適化
BioBERT事前学習モデルを基に、生物医学テキスト向けに特別に最適化
高性能エンティティ認識
jnlpbaデータセットで0.768のF1値を達成し、優れた性能を発揮
多種エンティティタイプ認識
生物医学文献中の様々なエンティティタイプを識別可能
モデル能力
生物医学固有表現認識
テキストトークン分類
生物医学文献分析
使用事例
生物医学研究
文献エンティティ抽出
生物医学研究論文から遺伝子、タンパク質等の主要エンティティを自動抽出
精度90.5%、再現率83.0%
知識グラフ構築
生物医学知識グラフ向けにエンティティを自動識別・注釈付け
医療情報処理
電子カルテ分析
医療記録から主要医学エンティティを抽出
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98