Italian NER XXL V2
Apache-2.0
第2世代イタリア語固有表現認識モデル、52種類のエンティティカテゴリ認識をサポート、プライバシー保護、法律、金融分野で幅広く活用
シーケンスラベリング
Safetensors 複数言語対応
I
DeepMount00
278
12
Pii Entity Extractor
DeBERTaをファインチューニングした固有表現認識モデルで、テキスト内の個人識別情報(PII)(氏名、社会保障番号、電話番号などの機密情報)を検出するために特別に設計されています。
シーケンスラベリング
Transformers その他

P
AI-Enthusiast11
155
2
Gliner Arabic V2.1
Apache-2.0
アラビア語テキスト処理のために設計された高精度の固有表現認識モデルで、複数のエンティティタイプの検出をサポートします。
シーケンスラベリング 複数言語対応
G
NAMAA-Space
46
8
PII Model Phi3 Mini
MIT
個人識別情報(PII)の検出に対して微調整されたPhi3 Miniモデルのバージョンで、テキスト内の様々なPIIエンティティを識別できます。
シーケンスラベリング
Transformers 英語

P
ab-ai
683
2
Distilbert Base Multilingual Cased Pii
Apache-2.0
distilbert-base-multilingual-casedをファインチューニングした多言語PII認識モデルで、テキスト中の個人識別情報を識別します。
シーケンスラベリング
Transformers

D
yonigo
531
2
Spanbert Base Pheno
SpanBertアーキテクチャをphenoデータセットでファインチューニングした命名エンティティ認識モデルで、生物医学分野のエンティティ認識タスクに特化しています。
シーケンスラベリング
Transformers

S
sadaqabdo
17
0
Literary German Bert
bert-base-german-dbmdz-casedアーキテクチャに基づくドイツ語BERTモデルで、文学テキストに最適化され、固有表現認識タスクをサポート
大規模言語モデル ドイツ語
L
severinsimmler
129
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98