Adebert
Apache-2.0
adeBERTはBERT-largeアーキテクチャをファインチューニングしたモデルで、特定領域タスクに特化しており、評価セットで優れた性能を発揮します。
大規模言語モデル
Transformers

A
Jacobberk
25
1
Medialbertina Pt Pt 900m
MIT
初の、実際のヨーロッパポルトガル語データを基に訓練された公開可能な医療言語モデル
大規模言語モデル
Transformers その他

M
portugueseNLP
70
7
Bert Base Chinese Medical Ner
BERTベースの中国語医療分野固有表現認識モデルで、医療テキスト内の専門エンティティを識別できます。
シーケンスラベリング
Transformers 複数言語対応

B
iioSnail
399
10
Drbert 7GB
Apache-2.0
DrBERTは、フランス語の医療テキストのオープンソースコーパスNACHOSを基に訓練されたフランス語のRoBERTaモデルで、生物医学と臨床分野に特化しています。
大規模言語モデル
Transformers フランス語

D
Dr-BERT
4,781
13
Bsc Bio Es
Apache-2.0
スペイン語の生物医学分野向けに設計された事前学習済み言語モデルで、臨床NLPタスクに適しています
大規模言語モデル
Transformers スペイン語

B
PlanTL-GOB-ES
162
5
Bert Fine Tuned Medical Insurance Ner
Apache-2.0
bert-base-casedをファインチューニングした医療保険分野の固有表現認識モデル
シーケンスラベリング
Transformers

B
JustAdvanceTechonology
35
4
Bio ClinicalBERT
MIT
Bio+Clinical BERTはBioBERTから初期化された臨床BERTモデルで、MIMIC IIIのすべてのノートで訓練されており、生物医学および臨床テキスト処理に適しています。
大規模言語モデル 英語
B
emilyalsentzer
2.0M
334
En Core Med7 Trf
MIT
en_core_med7_trf は spaCy ベースの臨床自然言語処理モデルで、電子健康記録から薬物関連の固有表現を識別・分類するために特別に設計されています。
シーケンスラベリング 英語
E
kormilitzin
497
12
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98