Ner Portuguese Br Bert Cased
Apache-2.0
BERTベースのポルトガル語固有表現抽出モデルで、複数の固有表現クラスの識別をサポートします。
シーケンスラベリング
Transformers その他

N
rhaymison
53
1
Anglicisms Spanish Flair Cs
スペイン語ニュースにおける未同化の英語借用語(例:'fake news'、'machine learning'など)を検出するための事前学習済みモデルです。
シーケンスラベリング スペイン語
A
lirondos
8,115
0
Anglicisms Spanish Mbert
これは、スペイン語のニュースにおける未同化の英語の語彙借用(いわゆる英語外来語)を検出するための事前学習モデルです。
シーケンスラベリング
Transformers スペイン語

A
lirondos
7,991
0
Bert Base NER
MIT
BERT-baseをベースとした固有表現抽出モデルで、場所、組織、人名などの4種類のエンティティを識別可能
シーケンスラベリング
Transformers 英語

B
optimum
69
2
Bert Base Finnish Uncased V1
FinBERTはGoogleのBERTアーキテクチャに基づくフィンランド語の事前学習済み言語モデルで、30億以上のフィンランド語テキストトークンで訓練されており、様々なフィンランド語NLPタスクに適しています。
大規模言語モデル その他
B
TurkuNLP
1,964
0
Afriberta Large
MIT
AfriBERTa largeは約1億2600万パラメータを持つ事前学習済み多言語モデルで、11のアフリカ言語をサポートし、テキスト分類や固有表現認識などのタスクに適しています。
大規模言語モデル
Transformers その他

A
castorini
857
12
Nepalibert
MIT
ネパール語ニュースデータに基づくマスク言語モデルで、訓練データは複数のネパールのニュースウェブサイトから収集され、約1000万のネパール語文を含み、内容は主にニュースです。
大規模言語モデル
Transformers その他

N
Shushant
701.51k
7
Afriberta Small
AfriBERTa小型版は9700万パラメータの多言語事前学習モデルで、11種類のアフリカ言語をサポートし、テキスト分類や固有表現認識などのタスクに適しています。
大規模言語モデル
Transformers

A
castorini
160
2
FERNET News
FERNET-ニュースは、チェコ語のRoBERTaに基づく単一言語の基礎モデルで、20.5GBの徹底的にクリーニングされたチェコ語ニュースコーパスを使って事前学習されています。
大規模言語モデル
Transformers その他

F
fav-kky
17
0
Arabic Ner
事前学習されたBERTモデルに基づくアラビア語命名エンティティ認識モデルで、8種類のエンティティタイプを認識できます。
シーケンスラベリング アラビア語
A
hatmimoha
45.56k
16
Bert Large NER
MIT
BERT-largeを微調整した命名エンティティ認識モデルで、CoNLL-2003データセットで最先端の性能を実現
シーケンスラベリング 英語
B
dslim
360.98k
150
Bert Base Multilingual Cased Finetuned Naija
これはナイジェリアピジン語に最適化されたBERTモデルで、多言語BERTを微調整して作成され、命名エンティティ認識タスクでは元の多言語BERTよりも優れた性能を発揮します。
大規模言語モデル
Transformers

B
Davlan
13
0
Bert Fa Base Uncased Clf Digimag
Apache-2.0
Transformerベースのペルシャ語理解モデル、語彙表を再構築し新コーパスで微調整、応用シーンを拡大
大規模言語モデル その他
B
HooshvareLab
32
0
Xlm Roberta Base Finetuned Amharic
XLM - RoBERTaをベースにアムハラ語テキストで微調整したモデルで、固有表現抽出タスクでは元のXLM - RoBERTaよりも優れた性能を発揮します。
大規模言語モデル
Transformers

X
Davlan
81
1
Bert Base Multilingual Cased Finetuned Swahili
多言語BERTモデルを微調整したスワヒリ語専用モデルで、テキスト分類と固有表現認識タスクで元の多言語BERTよりも優れた性能を発揮します。
大規模言語モデル
Transformers

B
Davlan
64
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98