Openbioner Base
MIT
OpenBioNERは、オープンドメインの生物医学命名エンティティ認識(NER)に特化した軽量BERTモデルで、対象エンティティタイプの自然言語記述のみで未見のエンティティタイプを識別でき、再トレーニングする必要がありません。
シーケンスラベリング 英語
O
disi-unibo-nlp
210
1
Gliner Biomed Base V1.0
Apache-2.0
GLiNER-生物医学版はGLiNERフレームワークを基に開発された専門的な生物医学固有表現認識モデルで、様々な生物医学エンティティタイプを識別できます。
シーケンスラベリング
PyTorch 英語
G
Ihor
61
2
Gliner Biomed Small V1.0
Apache-2.0
GLiNER-バイオメディカル版はGLiNERフレームワークに基づく、バイオメディカル分野専用のオープンNER効率的モデルスイートで、バイオメディカルテキスト内の様々なエンティティを識別できます。
シーケンスラベリング 英語
G
Ihor
33
2
Gliner Multi Pii Domains V1
Apache-2.0
GLiNER は名前付きエンティティ認識(NER)モデルで、双方向Transformerエンコーダーを使用してあらゆる種類のエンティティを認識でき、特に個人識別情報(PII)の認識に適しています。
シーケンスラベリング 複数言語対応
G
E3-JSI
592
14
Bi Encoder Russian Msmarco
MIT
DeepPavlov/rubert-base-cased事前学習モデルを基に、MS-MARCOロシア語パッセージランキングデータセットで微調整されたsentence-transformersモデルで、ロシア語の非対称意味検索に使用されます。
テキスト埋め込み
Transformers その他

B
DiTy
74.33k
6
En Biobert Ner Symptom
MIT
BioBERTをファインチューニングした固有表現認識モデルで、臨床記録から医学的症状を検出します。
シーケンスラベリング 英語
E
pmaitra
25
5
Negation Scope Detection SFU Spanish NLP CIC WFU DisTEMIST Fine Tuned
Apache-2.0
このモデルはajtamayoh/NER_EHR_Spanish_model_Mulitlingual_BERTを微調整したスペイン語否定範囲検出モデルです
シーケンスラベリング
Transformers

N
ajtamayoh
15
0
Bert Large Cased Squad V1.1 Portuguese
MIT
BERTimbau Largeで訓練されたポルトガル語質問応答モデルで、SQuAD v1.1ポルトガル語版で微調整されており、ポルトガル語の質問応答タスクに適しています。
質問応答システム
Transformers その他

B
pierreguillou
1,199
45
Wav2vec2 Xlsr Large 53 Kor Financial Engineering
これは汎用的なモデルの説明で、150字以内の簡潔な紹介です。
大規模言語モデル
W
Mads
19
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98