Bioclinical ModernBERT Base
MIT
BioClinical ModernBERTは、ModernBERTをベースに構築された生物医学および臨床自然言語処理モデルで、長文脈処理能力を備え、生物医学および臨床NLPタスクで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

B
thomas-sounack
115
9
C2S Pythia 410m Cell Type Prediction
Pythia-410mアーキテクチャに基づく細胞タイプ予測モデルで、Cell2SentenceメソッドによりscRNA-seqデータを'細胞文'に変換して微調整を行い、単細胞RNAシーケンスデータの細胞タイプ予測に特化しています。
大規模言語モデル
Transformers 英語

C
vandijklab
266
6
Biomistral MedMNX
BioMistral - MedMNXは、複数の事前学習モデルを融合することで作成された生物医学分野専用の言語モデルで、DAREとTIESの融合方法を用いて性能を最適化しています。
大規模言語モデル
Transformers

B
BioMistral
3,509
4
Wikimedical Sent Biobert Multi
sentence - transformersに基づく多言語医学テキストの文埋め込みモデルで、8つの言語をサポートします。
テキスト埋め込み
Transformers

W
nuvocare
14
1
All Mpnet Outcome Similarity
MPNetアーキテクチャに基づく汎用文埋め込みモデルで、文類似度タスクに最適化されており、特に臨床試験結果の類似性分析に適しています。
テキスト埋め込み 英語
A
laiking
18
0
Primarygleasonbert
Bio_ClinicalBERTはBERTアーキテクチャに基づく臨床テキスト処理モデルで、生物医学および臨床分野のテキストに特化して最適化されています。
テキスト分類
Transformers

P
jkefeli
30
2
Sci Five Radsum23
SciFive-base-Pubmed_PMCをファインチューニングしたT5モデルで、放射線レポート要約生成タスク向けに設計されており、MIMIC-IIIデータセットで訓練
テキスト生成
Transformers 英語

S
chizhikchi
150
0
Druggpt
Gpl-3.0
DrugGPTはGPT2アーキテクチャに基づく生成型医薬品設計モデルで、自然言語処理技術を用いて創薬に革新をもたらします。
分子モデル
Transformers

D
liyuesen
495
21
PMC LLAMA 7B
Apache-2.0
PMC_LLaMA_7BはLLaMA-7bをS2ORCデータセットのPMC論文で微調整したバージョンで、医療分野のテキスト生成タスクに特化しています。
大規模言語モデル
Transformers

P
chaoyi-wu
813
63
Scideberta Full
DeBERTa v2アーキテクチャに基づく学術論文専用言語モデルで、科学文献処理タスクで優れた性能を発揮
大規模言語モデル
Transformers 英語

S
KISTI-AI
515
3
Pubmedbert Mnli Snli Scinli Scitail Mednli Stsb
PubMedBERTベースの文変換モデルで、文や段落の768次元ベクトル表現を生成し、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

P
pritamdeka
213
7
Stanford Deidentifier Only Radiology Reports
MIT
トランスフォーマーとルールベース手法を組み合わせた放射線レポート自動非識別化システム。PHIエンティティを検出し擬似値で置換
シーケンスラベリング
Transformers 英語

S
StanfordAIMI
26
4
GO Language
MIT
本モデルはタンパク質の遺伝子オントロジー定義をベクトル表現にエンコードし、遺伝子レベルの類似性や機能用語間の比較を探求することを目的としています。
大規模言語モデル
Transformers

G
damlab
25
1
Bioformer Litcovid
Apache-2.0
164,179件のCOVID-19要約で事前学習された生物医学言語モデルで、COVID-19主題分類タスクで優れた性能を発揮
大規模言語モデル
Transformers 英語

B
bioformers
20
0
Biolinkbert Base
Apache-2.0
BioLinkBERTはPubMedの抄録と文献引用リンク情報に基づいて事前学習された改良版BERTモデルで、生物医学NLPタスクに優れています
大規模言語モデル
Transformers 英語

B
michiyasunaga
33.34k
37
COVID SciBERT
科学テキストで訓練されたBERTモデルSciBERTの小型言語モデリング拡張版で、特にCOVID-19関連研究向けに最適化されています
大規模言語モデル 英語
C
lordtt13
15
2
Biomednlp BiomedBERT Base Uncased Abstract
MIT
PubMed文献要約を用いて事前学習された生物医学ドメイン固有のBERTモデルで、複数の生物医学NLPタスクで最先端の性能を実現します。
大規模言語モデル 英語
B
microsoft
240.01k
74
Declutr Sci Base
Apache-2.0
SciBERTに基づく科学テキストの文エンコーダーで、自己教師付き学習により200万本の科学論文で学習されました。
テキスト埋め込み 英語
D
johngiorgi
50
9
Biomednlp BiomedBERT Base Uncased Abstract Fulltext
MIT
BiomedBERTはPubMedの抄録とPubMedCentralの全文を用いて事前学習された生物医学分野特化の言語モデルで、多くの生物医学NLPタスクで最先端の性能を達成しています。
大規模言語モデル 英語
B
microsoft
1.7M
240
Bio ClinicalBERT
MIT
Bio+Clinical BERTはBioBERTから初期化された臨床BERTモデルで、MIMIC IIIのすべてのノートで訓練されており、生物医学および臨床テキスト処理に適しています。
大規模言語モデル 英語
B
emilyalsentzer
2.0M
334
Biom ALBERT Xxlarge
BERT、ALBERT、ELECTRAをベースに構築された大型の生物医学言語モデルで、生物医学分野のタスクに特化しています。
大規模言語モデル
Transformers

B
sultan
77
2
Bioredditbert Uncased
BioBERTを初期化し、健康関連のReddit投稿でさらに事前学習を行ったBERTモデルで、ソーシャルメディアの医療テキスト処理に特化
大規模言語モデル 英語
B
cambridgeltl
295
5
Vetbert
Openrail
VetBERTは、獣医臨床ノートの処理に特化した事前学習言語モデルで、Bio_ClinicalBERTをベースに獣医医学分野のデータでさらに学習されています。
大規模言語モデル
Transformers 英語

V
havocy28
87
2
Bart Large Cnn Finetuned Pubmed
MIT
BART-large-cnnを医学文献要約データセットで微調整したテキスト生成モデルで、医学文献要約生成タスクに特化しています。
テキスト生成
Transformers

B
Kevincp560
126
2
Bio Lm
RoBERTaの基礎事前学習モデルに基づき、生命科学分野の英語科学テキストでさらに学習した言語モデル
大規模言語モデル
B
EMBO
16
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98