Modernbert Base Tr Uncased
MIT
ModernBERTアーキテクチャに基づくトルコ語事前学習モデル、8192トークンのコンテキスト長をサポート、複数分野で優れた性能
大規模言語モデル
Transformers その他

M
artiwise-ai
159
9
Extractive Summarization
MIT
このモデルはt5-smallをファインチューニングしたバージョンで、PubMedデータセットを使用して科学・医学テキストを要約するために最適化されています。
テキスト生成 英語
E
nyamuda
94
0
Med T5 Summ Ru
ロシア語生物医学テキストの抽象的な要約生成のためのシーケンス・ツー・シーケンスモデル
テキスト生成
Transformers その他

M
sacreemure
27
0
Biomednlp BiomedBERT Large Uncased Abstract
MIT
BiomedBERTはPubMedの抄録テキストを基にゼロから事前学習された生物医学分野向け大規模言語モデルで、生物医学自然言語処理タスクの性能向上に特化しています。
大規模言語モデル
Transformers 英語

B
microsoft
637
18
Med KEBERT
Openrail
これはBERTアーキテクチャに基づく生物医学分野の事前学習言語モデルで、生物医学テキストデータの処理に適しています。
大規模言語モデル
Transformers 英語

M
xmcmic
769
1
Roberta Es Clinical Trials Ner
RoBERTaベースのスペイン語臨床試験テキスト用固有表現認識モデル、4種類の医学的セマンティックグループを検出可能
シーケンスラベリング
Transformers スペイン語

R
lcampillos
277
10
Bio Bert Ft
BioBERTをベースにした生物医学領域のファインチューニングモデルで、特定タスクで0.8621のF1スコアを達成
大規模言語モデル
Transformers

B
ericntay
15
0
Stanford Deidentifier With Radiology Reports And I2b2
MIT
トランスフォーマーモデルに基づく放射学レポートの自動識別情報削除システム。保護対象健康情報(PHI)を検出し、擬似代替値に置換することでプライバシー保護を実現
シーケンスラベリング
Transformers 英語

S
StanfordAIMI
126
6
Stanford Deidentifier Only I2b2
MIT
トランスフォーマーモデルに基づく放射学レポート自動匿名化システム、ルールベース手法と組み合わせて高精度なPHI検出と置換を実現
シーケンスラベリング
Transformers 英語

S
StanfordAIMI
98
5
Mt5 Chinese Small
mT5-smallをベースに微調整した要約生成モデルで、中国語テキストの要約タスクをサポートします。
テキスト生成
Transformers 中国語

M
yihsuan
36
7
Biolinkbert Large
Apache-2.0
BioLinkBERTはPubMed抄録と文献引用リンク情報を用いて事前学習された生物医学言語モデルで、ドキュメント間の知識統合により性能を向上させています。
大規模言語モデル
Transformers 英語

B
michiyasunaga
3,152
35
Covidbert Nli
コロナウイルス研究論文データセットCORD19で訓練されたBERTモデル、自然言語推論タスクによるファインチューニングで汎用文埋め込み表現を生成
テキスト埋め込み
C
gsarti
26
0
Biobertpt Clin
BioBERTptはBERTアーキテクチャに基づくポルトガル語臨床・生物医学モデルで、臨床固有表現認識タスクに最適化されています。
大規模言語モデル その他
B
pucpr
109
11
Pubmedbert Abstract Cord19
MIT
CORD - 19要約データセット上で微調整されたPubMedBERTに基づく生物医学テキスト処理モデル
大規模言語モデル
Transformers

P
pritamdeka
16
0
Rubiobert
RuBioRoBERTaはロシア語の生物医学テキスト向けに事前学習されたRoBERTaモデルで、生物医学分野の自然言語処理タスクに特化しています。
大規模言語モデル
Transformers

R
alexyalunin
686
1
Biobertpt All
BERTベースのポルトガル語臨床・生物医学モデル、臨床記録と生物医学文献で訓練
大規模言語モデル その他
B
pucpr
1,460
23
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98