# ニューステキスト分析

Ner Portuguese Br Bert Cased
Apache-2.0
BERTベースのポルトガル語固有表現抽出モデルで、複数の固有表現クラスの識別をサポートします。
シーケンスラベリング Transformers その他
N
rhaymison
53
1
Anglicisms Spanish Flair Cs
スペイン語ニュースにおける未同化の英語借用語(例:'fake news'、'machine learning'など)を検出するための事前学習済みモデルです。
シーケンスラベリング スペイン語
A
lirondos
8,115
0
Anglicisms Spanish Mbert
これは、スペイン語のニュースにおける未同化の英語の語彙借用(いわゆる英語外来語)を検出するための事前学習モデルです。
シーケンスラベリング Transformers スペイン語
A
lirondos
7,991
0
Bert Base NER
MIT
BERT-baseをベースとした固有表現抽出モデルで、場所、組織、人名などの4種類のエンティティを識別可能
シーケンスラベリング Transformers 英語
B
optimum
69
2
Bert Base Finnish Uncased V1
FinBERTはGoogleのBERTアーキテクチャに基づくフィンランド語の事前学習済み言語モデルで、30億以上のフィンランド語テキストトークンで訓練されており、様々なフィンランド語NLPタスクに適しています。
大規模言語モデル その他
B
TurkuNLP
1,964
0
Afriberta Large
MIT
AfriBERTa largeは約1億2600万パラメータを持つ事前学習済み多言語モデルで、11のアフリカ言語をサポートし、テキスト分類や固有表現認識などのタスクに適しています。
大規模言語モデル Transformers その他
A
castorini
857
12
Nepalibert
MIT
ネパール語ニュースデータに基づくマスク言語モデルで、訓練データは複数のネパールのニュースウェブサイトから収集され、約1000万のネパール語文を含み、内容は主にニュースです。
大規模言語モデル Transformers その他
N
Shushant
701.51k
7
Afriberta Small
AfriBERTa小型版は9700万パラメータの多言語事前学習モデルで、11種類のアフリカ言語をサポートし、テキスト分類や固有表現認識などのタスクに適しています。
大規模言語モデル Transformers
A
castorini
160
2
FERNET News
FERNET-ニュースは、チェコ語のRoBERTaに基づく単一言語の基礎モデルで、20.5GBの徹底的にクリーニングされたチェコ語ニュースコーパスを使って事前学習されています。
大規模言語モデル Transformers その他
F
fav-kky
17
0
Arabic Ner
事前学習されたBERTモデルに基づくアラビア語命名エンティティ認識モデルで、8種類のエンティティタイプを認識できます。
シーケンスラベリング アラビア語
A
hatmimoha
45.56k
16
Bert Large NER
MIT
BERT-largeを微調整した命名エンティティ認識モデルで、CoNLL-2003データセットで最先端の性能を実現
シーケンスラベリング 英語
B
dslim
360.98k
150
Bert Base Multilingual Cased Finetuned Naija
これはナイジェリアピジン語に最適化されたBERTモデルで、多言語BERTを微調整して作成され、命名エンティティ認識タスクでは元の多言語BERTよりも優れた性能を発揮します。
大規模言語モデル Transformers
B
Davlan
13
0
Bert Fa Base Uncased Clf Digimag
Apache-2.0
Transformerベースのペルシャ語理解モデル、語彙表を再構築し新コーパスで微調整、応用シーンを拡大
大規模言語モデル その他
B
HooshvareLab
32
0
Xlm Roberta Base Finetuned Amharic
XLM - RoBERTaをベースにアムハラ語テキストで微調整したモデルで、固有表現抽出タスクでは元のXLM - RoBERTaよりも優れた性能を発揮します。
大規模言語モデル Transformers
X
Davlan
81
1
Bert Base Multilingual Cased Finetuned Swahili
多言語BERTモデルを微調整したスワヒリ語専用モデルで、テキスト分類と固有表現認識タスクで元の多言語BERTよりも優れた性能を発揮します。
大規模言語モデル Transformers
B
Davlan
64
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase