Roberta Medium Amharic
アムハラ語用に特別に設計されたRoBERTaモデルで、ゼロからの事前学習によりアムハラ語の自然言語処理タスクの性能不足を解消します。
大規模言語モデル
Transformers その他

R
rasyosef
132
1
Universal NER UniNER 7B All Bnb 4bit Smashed
PrunaAIが提供する圧縮版UniNER-7B-allモデル。量子化技術によりメモリ使用量と消費電力を大幅に削減しながら、良好な固有表現抽出能力を維持。
大規模言語モデル
Transformers

U
PrunaAI
22
1
Bert Finetuned Ner
Apache-2.0
BERT-base-casedモデルをconll2003データセットでファインチューニングした固有表現抽出モデル
シーケンスラベリング
Transformers

B
fundrais123
23
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
このモデルはDistilBERTベースの軽量モデルで、玩具データセット上で固有表現抽出(NER)タスクのファインチューニングを行っています。
シーケンスラベリング
Transformers

D
kinanmartin
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、特定データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
IsaMaks
15
0
Bert Finetuned Ner 0
Apache-2.0
このモデルはbert-base-casedを未知のデータセットでファインチューニングしたバージョンで、主に固有表現抽出(NER)タスクに使用されます。
シーケンスラベリング
Transformers

B
mariolinml
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
hossay
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
murdockthedude
15
0
Distilbert Base Uncased Finetuned TT2 Exam
Apache-2.0
このモデルは、conll2003データセットでファインチューニングされたdistilbert-base-uncasedベースのバージョンで、タグ分類タスクに使用されます。
シーケンスラベリング
Transformers

D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデルで、conll2003データセットでファインチューニングされており、効率的な推論性能と高い精度を備えています。
シーケンスラベリング
Transformers

D
roschmid
15
0
Biodivbert
Apache-2.0
BiodivBERTはBERTベースのドメイン特化モデルで、生物多様性文献向けに設計されています。
大規模言語モデル
Transformers 英語

B
NoYo25
49
3
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERT-base-uncasedモデルをファインチューニングした固有表現抽出(NER)モデル
シーケンスラベリング
Transformers

D
chancar
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
このモデルはDistilBERTの軽量版をベースとしており、conll2003データセットで固有表現抽出タスク向けにファインチューニングされています。
シーケンスラベリング
Transformers

D
Udi-Aharon
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
これはDistilBERTベースの軽量モデルで、CoNLL-2003固有表現抽出(NER)タスクでファインチューニングされています。
シーケンスラベリング
Transformers

D
guhuawuli
15
0
Test
Apache-2.0
このモデルはhfl/chinese-bert-wwm-extをconll2003データセットでファインチューニングしたバージョンで、タグ分類タスクに使用されます。
シーケンスラベリング
Transformers

T
vegetable
15
0
Distilbert Base Uncased Finetuned Ner Final
DistilBERTアーキテクチャに基づく軽量な固有表現抽出(NER)モデル、特定タスク向けにファインチューニング済み
シーケンスラベリング
Transformers

D
Lilya
15
0
Bert Base Cased Ner Conll2003
Apache-2.0
bert-base-casedをCoNLL2003データセットでファインチューニングした固有表現抽出モデル
シーケンスラベリング
Transformers

B
kamalkraj
38
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
このモデルはDistilBERTベース版をファインチューニングした固有表現抽出(NER)モデルで、未知のデータセットで訓練され、評価セットのF1スコアは0.8545を達成しました。
シーケンスラベリング
Transformers

D
SnailPoo
15
0
Cybonto Distilbert Base Uncased Finetuned Ner FewNerd
Apache-2.0
このモデルはdistilbert-base-uncasedをfew_nerdデータセットでファインチューニングした固有表現抽出(NER)モデルで、評価セットでF1スコア0.7621を達成しました。
シーケンスラベリング
Transformers

C
theResearchNinja
17
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
ACSHCSE
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERT-base-uncasedモデルをconll2003データセットでファインチューニングした固有表現抽出モデルで、NERタスクで優れた性能を発揮します。
シーケンスラベリング
Transformers

D
issifuamajeed
947
0
Bert Base NER
MIT
BERT-baseをベースとした固有表現抽出モデルで、場所、組織、人名などの4種類のエンティティを識別可能
シーケンスラベリング
Transformers 英語

B
optimum
69
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデルで、conll2003データセットでファインチューニングされており、英語テキストのエンティティタグ付けタスクに適しています。
シーケンスラベリング
Transformers

D
tiennvcs
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
MikhailGalperin
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERT-base-uncasedモデルをNERタスクでファインチューニングした軽量モデル
シーケンスラベリング
Transformers

D
akshaychaudhary
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み、英文テキストのエンティティラベリングタスクに適しています。
シーケンスラベリング
Transformers

D
codingJacob
16
0
Stanza Ja
Apache-2.0
Stanzaは高精度で効率的な多言語言語学分析ツールセットで、生テキストから構文解析や固有表現認識までの自然言語処理能力を提供します。
シーケンスラベリング 日本語
S
stanfordnlp
259
5
Distilroberta Base Ner Wikiann
Apache-2.0
DistilRoBERTa-baseモデルをwikiannデータセットでファインチューニングした固有表現抽出モデルで、テキスト中の固有表現を識別します。
シーケンスラベリング
Transformers

D
philschmid
16
0
Robeczech Base
RobeCzechはチェコ語データを基に訓練された単言語RoBERTa言語表現モデルで、チェコのチャールズ大学の形式・応用言語学部によって開発されました。
大規模言語モデル
Transformers その他

R
ufal
2,911
13
Es Core News Md
Gpl-3.0
spaCyが提供するスペイン語の中規模NLP処理パイプラインで、CPU向けに最適化され、完全な言語処理コンポーネントを含んでいます。
シーケンスラベリング スペイン語
E
spacy
447
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量モデルで、固有表現抽出(NER)タスク向けにファインチューニング
シーケンスラベリング
Transformers

D
suwani
16
0
Stanza Sv
Apache-2.0
Stanzaは多言語の言語学分析ツールセットで、生テキストから構文解析や固有表現抽出までの機能を提供します。
シーケンスラベリング その他
S
stanfordnlp
1,300
0
Distilbert Base Uncased Finetuned Conll03 English
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデルで、英語テキストに最適化されており、大文字小文字を区別しません。
シーケンスラベリング
Transformers 英語

D
elastic
2,363
33
Distilbert Base Cased Finetuned Conll03 English
Apache-2.0
DistilBERTベースの固有表現抽出モデルで、CoNLL-2003英語データセットでファインチューニングされており、大文字小文字を区別するテキスト処理に適しています。
シーケンスラベリング
Transformers 英語

D
elastic
7,431
14
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
srosy
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
thomaszz
15
0
BERT NER Ep6 PAD 50 Finetuned Ner
Apache-2.0
bert-base-casedをファインチューニングした固有表現抽出(NER)モデルで、未知のデータセットで6エポック訓練され、中程度の性能を示します
シーケンスラベリング
Transformers

B
suwani
14
0
Classical Chinese Punctuation Guwen Biaodian
このモデルは、句読点のない文言文に自動的に句読点を付けるために使用され、20種類以上の句読点をサポートします。
シーケンスラベリング
Transformers 複数言語対応

C
raynardj
166
24
Afriberta Base
AfriBERTaは11種類のアフリカ言語をサポートする多言語事前学習モデルで、1億1100万のパラメータを持ち、テキスト分類や固有表現抽出などのタスクに適しています。
大規模言語モデル
Transformers

A
castorini
697
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
cogito233
16
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98