Bert Italian Finetuned Ner
MIT
dbmdz/bert-base-italian-casedをベースに微調整されたイタリア語の命名エンティティ認識モデルで、wiki_neuralデータセットで優れた性能を発揮します。
シーケンスラベリング
Transformers その他

B
nickprock
290
8
Tr Core News Trf
TrSpaCy用のトルコ語変換器パイプラインで、変換器、タグ付け器、形態解析器、見出し語化器、構文解析器、および固有表現認識器のコンポーネントを含みます。
シーケンスラベリング その他
T
turkish-nlp-suite
208
16
Roberta Large NER
XLM - RoBERTa - largeモデルを英語のCoNLL - 2003データセットで微調整した命名エンティティ認識モデル
シーケンスラベリング 複数言語対応
R
51la5
60.39k
48
Legal Bert Ner Base Cased Ptbr
ポルトガル語の法律テキストに対する命名エンティティ認識モデルで、BERTアーキテクチャに基づいて微調整され、法律文書内の特定のエンティティカテゴリを識別するために使用されます。
シーケンスラベリング
Transformers その他

L
dominguesm
619
11
Nbailab Base Ner Scandi
MIT
デンマーク語、ノルウェー語、スウェーデン語、アイスランド語、フェロー語に適用可能な命名エンティティ認識モデル。NbAiLab/nb-bert-baseをベースに微調整されています。
シーケンスラベリング
Transformers その他

N
saattrupdan
16.94k
22
Ner English Large
Flairフレームワークに組み込まれた英語の4種類の大型NERモデルで、文書レベルのXLM - R埋め込みとFLERT技術に基づいており、CoNLL - 03データセットでF1スコアが94.36に達します。
シーケンスラベリング 英語
N
flair
749.04k
44
Ner German Large
Flairフレームワークに組み込まれたドイツ語の4種類の大型命名エンティティ認識モデルで、XLM - R埋め込みとFLERT技術に基づいており、CoNLL - 03ドイツ語データセットで92.31のF1スコアを達成しています。
シーケンスラベリング ドイツ語
N
flair
297.28k
40
Distilbert Base Multilingual Cased Finetuned Conll2003 Ner
これはDistilBERTをベースにした多言語モデルで、固有表現認識タスクに特化しており、ConLL 2003データセットで微調整されています。
シーケンスラベリング
Transformers 複数言語対応

D
gunghio
73
3
Slovakbert Ner
MIT
このモデルは、SlovakBERTをスロバキアのwikiannデータセットでファインチューニングした命名エンティティ認識モデルで、地理位置、人物、組織機関の3種類のエンティティの認識をサポートします。
シーケンスラベリング
Transformers その他

S
crabz
58
2
Jdt Fin Roberta Wwm
Apache-2.0
金融分野の専用事前学習言語モデルで、RoBERTa-wwmアーキテクチャに基づいて最適化され、金融タスクの性能を向上させます。
大規模言語モデル
Transformers 中国語

J
wangfan
19
1
FERNET CC Sk Ner
FERNET-CC_skを微調整したスロバキア語の命名エンティティ認識モデルで、場所、人物、組織の3種類のエンティティの認識をサポートします。
シーケンスラベリング
Transformers その他

F
crabz
24
1
Ner Dutch
Flairに付属のオランダ語の標準4種類のNERモデルで、オランダ語テキスト中の人名、地名、組織名、その他の名前を認識するために使用されます。
シーケンスラベリング その他
N
flair
74
3
Bert Portuguese Ner
MIT
BERTベースのポルトガル語の命名エンティティ認識モデルで、アーカイブ文献に特化して微調整されています。
シーケンスラベリング
Transformers

B
lfcc
2,229
3
Roberta Large Bne Capitel Ner
Apache-2.0
このモデルはRoBERTaアーキテクチャに基づくスペイン語の命名エンティティ認識モデルで、BNEの大規模コーパスで事前学習した後、CAPITEL-NERCデータセットで微調整されました。
シーケンスラベリング
Transformers 複数言語対応

R
PlanTL-GOB-ES
370
0
Bert Base Parsbert Ner Uncased
Apache-2.0
Transformerアーキテクチャに基づくペルシア語理解モデルで、ペルシア語の固有表現認識(NER)タスクに特化して最適化されています。
シーケンスラベリング その他
B
HooshvareLab
6,130
5
Roberta Base Bne Capitel Ner Plus
Apache-2.0
RoBERTaアーキテクチャに基づくスペイン語の命名エンティティ認識モデルで、BNEコーパスで事前学習し、CAPITELデータセットで微調整しており、小文字の命名エンティティ認識においてより優れた性能を発揮します。
シーケンスラベリング
Transformers 複数言語対応

R
PlanTL-GOB-ES
1,481
7
Xlm Roberta Large Finetuned Conll03 English
XLM - RoBERTa - largeモデルを英語のconll2003データセットで微調整した命名エンティティ認識モデル
シーケンスラベリング 複数言語対応
X
FacebookAI
84.75k
169
Roberta Base Bne Capitel Ner
Apache-2.0
RoBERTaアーキテクチャに基づくスペイン語の命名エンティティ認識モデルで、BNEコーパスで事前学習し、CAPITEL-NERCデータセットで微調整しました。
シーケンスラベリング
Transformers 複数言語対応

R
PlanTL-GOB-ES
8,221
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98