Gliner Large V2.5
Apache-2.0
GLiNERは汎用的な固有表現抽出(NER)モデルで、あらゆるタイプのエンティティを認識でき、従来のNERモデルに代わる実用的な選択肢を提供します。
シーケンスラベリング その他
G
gliner-community
2,896
18
Gliner Medium V2.5
Apache-2.0
GLiNERは汎用的な固有表現抽出(NER)モデルで、あらゆるタイプのエンティティを認識でき、従来のNERモデルに代わる実用的なソリューションを提供するとともに、大規模言語モデルの高いリソース消費問題を解決します。
シーケンスラベリング その他
G
gliner-community
678
7
Gliner Small V2.5
Apache-2.0
GLiNERは、双方向Transformerエンコーダーを使用してあらゆるエンティティタイプを認識できる汎用的な固有表現認識(NER)モデルです。
シーケンスラベリング
PyTorch
G
gliner-community
2,252
6
Gliner Large V2.1
Apache-2.0
GLiNERは汎用的な固有表現認識(NER)モデルで、あらゆるタイプのエンティティを認識でき、従来のNERモデルや大規模言語モデルに代わる実用的な選択肢を提供します。
シーケンスラベリング その他
G
urchade
10.31k
34
Gliner Multi V2.1
Apache-2.0
GLiNERは汎用的な固有表現認識(NER)モデルで、あらゆるエンティティタイプを認識でき、従来のNERモデルの実用的な代替手段を提供します。
シーケンスラベリング その他
G
urchade
5,018
119
Gliner Multi
GLiNERは多言語固有表現認識(NER)モデルで、双方向Transformerエンコーダーを使用してあらゆるエンティティタイプを認識でき、従来のNERモデルに柔軟な代替手段を提供します。
シーケンスラベリング その他
G
urchade
1,459
128
Distilbert Base Multi Cased Ner
これはDistilBERTベースの多言語固有表現認識(NER)モデルで、10言語をサポートし、量子化処理によりTransformers.jsと互換性があります。
シーケンスラベリング
Transformers 複数言語対応

D
vgorce
16
1
Multilingual Xlm Roberta For Ner
MIT
XLM-RoBERTaベースモデルをファインチューニングした固有表現認識モデルで、多言語対応可能。場所、組織、人物の3種類のエンティティを認識できます。
シーケンスラベリング
Transformers

M
Tirendaz
56
2
Span Marker Mbert Base Multinerd
これはMultiNERDデータセットで訓練された多言語固有表現認識モデルで、20以上の言語をサポートし、bert-base-multilingual-casedを基盤エンコーダーとして使用しています。
シーケンスラベリング
TensorBoard その他

S
tomaarsen
5,591
64
Cv Parser
MIT
microsoft/mdeberta-v3-baseを微調整した固有表現認識モデルで、評価データセットで優れた性能を発揮
シーケンスラベリング
Transformers

C
nhanv
45
6
Roberta Large NER
XLM - RoBERTa - largeモデルを英語のCoNLL - 2003データセットで微調整した命名エンティティ認識モデル
シーケンスラベリング 複数言語対応
R
51la5
60.39k
48
Roberta Ner Multilingual
MIT
RoBERTaアーキテクチャに基づく多言語固有表現認識モデルで、20言語のエンティティ認識タスクをサポートします。
シーケンスラベリング
Transformers 複数言語対応

R
julian-schelb
493
10
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングした多言語モデルで、主に固有表現認識タスクに使用されます。
大規模言語モデル
Transformers

X
andreaschandra
15
0
Xlm Roberta Base Finetuned Panx All
MIT
XLM-RoBERTa-baseモデルを特定のデータセットでファインチューニングしたバージョンで、主にシーケンスラベリングタスクに使用され、評価F1スコアは0.8561です。
大規模言語モデル
Transformers

X
huangjia
29
0
Xlm Roberta Base Finetuned Panx En
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたタグ分類モデルで、固有表現認識タスクに使用されます
シーケンスラベリング
Transformers

X
Eleven
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM - RoBERTa - baseモデルをドイツ語とフランス語のデータセットで微調整したバージョンで、主に系列ラベリングタスクに使用されます。
大規模言語モデル
Transformers

X
haesun
15
0
Xlm Roberta Base Finetuned Panx All
MIT
xlm-roberta-baseを多言語データセットでファインチューニングした固有表現認識モデル
大規模言語モデル
Transformers

X
flood
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングした多言語モデル
大規模言語モデル
Transformers

X
skr3178
15
0
Xlm Roberta Base Finetuned Panx De
MIT
PAN-Xドイツ語データセットでファインチューニングされたXLM-RoBERTa-baseモデルに基づくトークン分類モデル
シーケンスラベリング
Transformers

X
skr3178
18
0
Distilbert Cord Ner
Apache-2.0
Geotrend/distilbert-base-en-fr-de-no-da-casedをファインチューニングした固有表現認識モデルで、評価データセットで優れた性能を発揮
シーケンスラベリング
Transformers

D
renjithks
15
0
Xlm Roberta Base Finetuned Panx De
MIT
xtremeデータセットでxlm-roberta-baseをファインチューニングしたドイツ語トークン分類モデル
シーケンスラベリング
Transformers

X
dfsj
15
0
Hiner Original Xlm Roberta Large
このモデルは、XLM - RoBERTa - largeアーキテクチャに基づき、HiNER - originalデータセットで訓練された固有表現認識モデルで、ラベル分類タスクに特化しています。
シーケンスラベリング
Transformers

H
cfilt
56
1
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
davidenam
27
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングした多言語モデルで、主に固有表現認識タスクに使用されます。
大規模言語モデル
Transformers

X
danhsf
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
xlm-roberta-baseを基にドイツ語とフランス語のデータセットでファインチューニングした多言語モデルで、主に固有表現認識タスクに使用されます。
シーケンスラベリング
Transformers

X
edwardjross
14
0
Roberta Finetuned Ner
MIT
xlm-roberta-baseをファインチューニングした固有表現抽出(NER)モデルで、評価データセットで優れた性能(F1スコア0.9777)を発揮
シーケンスラベリング
Transformers

R
kSaluja
25
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語のトークン分類モデルで、固有表現認識タスクに使用されます。
シーケンスラベリング
Transformers

X
frahman
25
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
XLM-RoBERTa-baseモデルをドイツ語とフランス語のデータセットでファインチューニングしたバージョンで、主に固有表現認識タスクに使用されます。
大規模言語モデル
Transformers

X
osanseviero
14
0
Xlm Roberta Base Finetuned Panx All
MIT
XLM-RoBERTa-baseモデルをPAN-Xデータセットでファインチューニングした多言語固有表現認識モデル
シーケンスラベリング
Transformers

X
transformersbook
15
4
Ner Multi Fast
英語、ドイツ語、オランダ語、スペイン語をサポートする高速な4種類の固有表現認識モデルで、FlairフレームワークとLSTM-CRFアーキテクチャに基づいています。
シーケンスラベリング 複数言語対応
N
flair
70
6
Tner Xlm Roberta Large All English
XLM-RoBERTaをファインチューニングした固有表現認識モデルで、英語テキストのエンティティ認識タスクをサポートします。
シーケンスラベリング
Transformers

T
asahi417
5,023
1
Tner Xlm Roberta Base Uncased Ontonotes5
これは固有表現認識タスクでファインチューニングされたXLM-RoBERTaモデルで、多言語テキストにおけるエンティティ認識タスクに適しています。
シーケンスラベリング
Transformers

T
asahi417
605
1
Distilbert Base Multilingual Cased Finetuned Conll2003 Ner
これはDistilBERTをベースにした多言語モデルで、固有表現認識タスクに特化しており、ConLL 2003データセットで微調整されています。
シーケンスラベリング
Transformers 複数言語対応

D
gunghio
73
3
Xx Ent Wiki Sm
MIT
CPU最適化された多言語固有表現認識モデルで、場所、組織、人物などのエンティティタイプを認識可能
シーケンスラベリング その他
X
spacy
245
8
Tf Xlm R Ner 40 Lang
XLM-Roberta-baseをベースとした多言語固有表現認識モデルで、40言語のエンティティ認識をサポート
シーケンスラベリング
Transformers 複数言語対応

T
jplu
969
25
Xlm Roberta Base Finetuned Panx De
MIT
このモデルはxlm-roberta-baseをxtremeデータセットでファインチューニングしたバージョンで、ドイツ語のトークン分類タスクに使用されます。
シーケンスラベリング
Transformers

X
osanseviero
14
0
XLMR ENIS Finetuned Ner
このモデルはXLMR-ENISをconll2003データセットでファインチューニングした固有表現認識モデルで、英語とアイスランド語をサポートしています。
シーケンスラベリング
Transformers 複数言語対応

X
vesteinn
90
1
Tner Xlm Roberta Base Ontonotes5
XLM-RoBERTaをファインチューニングした固有表現認識モデルで、英語テキストにおけるエンティティのトークン分類タスクをサポートします。
シーケンスラベリング
Transformers 英語

T
asahi417
17.30k
5
Ner Multi
Flairに組み込まれた標準4クラスNERモデルで、英語、ドイツ語、オランダ語、スペイン語の固有表現認識タスクに適用可能
シーケンスラベリング 複数言語対応
N
flair
6,369
8
Xlm Roberta Base Ner Hrl
XLM - RoBERTaに基づく多言語の固有表現認識モデルで、10種類の高資源言語をサポートし、場所、組織、人物の3種類のエンティティを認識できます。
シーケンスラベリング
Transformers

X
Davlan
21.81k
16
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98