# 命名實體識別

Roberta Medium Amharic
專為阿姆哈拉語設計的RoBERTa模型,通過從頭預訓練解決阿姆哈拉語NLP任務性能不足問題
大型語言模型 Transformers 其他
R
rasyosef
132
1
Universal NER UniNER 7B All Bnb 4bit Smashed
PrunaAI提供的壓縮版UniNER-7B-all模型,通過量化技術顯著減少內存佔用和能耗,同時保持較好的命名實體識別能力。
大型語言模型 Transformers
U
PrunaAI
22
1
FRED T5 Large Instruct V0.1
Apache-2.0
FRED-T5-large-instruct-v0.1 是一個基於 PyTorch 和 Transformers 的俄語文本自動編輯及問題解答模型,主要用於俄語文本的多種處理任務。
大型語言模型 Transformers 其他
F
bond005
173
15
Illuni Llama 2 Ko 7b
MIT
基於beomi/llama-2-ko-7b的韓語大語言模型,適用於問答任務
大型語言模型 Transformers 韓語
I
illuni
65
2
Electra Small Ner
Apache-2.0
基於electra-small微調的命名實體識別模型,可識別地點、人名和組織機構三類實體
序列標註 Transformers 英語
E
rv2307
74
3
Dictabert Joint
針對現代希伯來語的最先進多任務聯合解析BERT模型,支持前綴分割、形態消歧、詞典分析、句法解析和命名實體識別五大任務
序列標註 Transformers 其他
D
dicta-il
3,678
2
Bert Finetuned Ner
Apache-2.0
基於BERT-base-cased模型在conll2003數據集上微調的命名實體識別模型
序列標註 Transformers
B
fundrais123
23
1
Bertimbau
MIT
針對巴西葡萄牙語預訓練的BERT模型,在多項NLP任務中表現優異
大型語言模型 其他
B
tubyneto
38
1
Afrolm Active Learning
AfroLM是一個針對23種非洲語言優化的預訓練語言模型,採用自主動學習框架,使用少量數據實現高性能
大型語言模型 Transformers 其他
A
bonadossou
132
8
Roberta Base Mnli Uf Ner 1024 Train V0
MIT
基於RoBERTa-base模型在MNLI數據集上微調的版本,適用於自然語言推理任務
大型語言模型 Transformers
R
mariolinml
26
1
Bert Finetuned Ner
Apache-2.0
基於bert-base-cased微調的命名實體識別(NER)模型
序列標註 Transformers
B
ankitsharma
14
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
該模型是基於DistilBERT的輕量級模型,在玩具數據集上進行了命名實體識別(NER)任務的微調。
序列標註 Transformers
D
kinanmartin
16
0
Astrobert
MIT
專為天文學和天體物理學設計的語言模型,由NASA/ADS團隊開發,支持填充掩碼、命名實體識別和文本分類任務。
大型語言模型 Transformers 英語
A
adsabs
215
14
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在特定數據集上進行了微調
序列標註 Transformers
D
IsaMaks
15
0
Bert Finetuned Ner 0
Apache-2.0
該模型是基於bert-base-cased在未知數據集上微調的版本,主要用於命名實體識別(NER)任務。
序列標註 Transformers
B
mariolinml
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註 Transformers
D
hossay
16
0
Bert Base Swedish Cased Ner
瑞典國家圖書館/KBLab發佈的瑞典語BERT基礎模型,基於多源文本訓練
大型語言模型 其他
B
KB
20.77k
8
Bert Base Swedish Cased
瑞典國家圖書館/KBLab發佈的瑞典語BERT基礎模型,基於多源文本訓練
大型語言模型 其他
B
KB
11.16k
21
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註 Transformers
D
murdockthedude
15
0
Distilbert Base Uncased Finetuned TT2 Exam
Apache-2.0
該模型是基於distilbert-base-uncased在conll2003數據集上微調的版本,用於標記分類任務。
序列標註 Transformers
D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調,具有高效的推理性能和較高的準確率。
序列標註 Transformers
D
roschmid
15
0
Biodivbert
Apache-2.0
BiodivBERT是一個基於BERT的領域特定模型,專為生物多樣性文獻設計。
大型語言模型 Transformers 英語
B
NoYo25
49
3
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT-base-uncased模型微調的命名實體識別(NER)模型
序列標註 Transformers
D
chancar
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
該模型是基於DistilBERT的輕量級版本,在conll2003數據集上微調用於命名實體識別任務。
序列標註 Transformers
D
Udi-Aharon
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
這是一個基於DistilBERT的輕量級模型,在CoNLL-2003命名實體識別(NER)任務上進行了微調。
序列標註 Transformers
D
guhuawuli
15
0
Test
Apache-2.0
該模型是基於hfl/chinese-bert-wwm-ext在conll2003數據集上微調的版本,用於標記分類任務。
序列標註 Transformers
T
vegetable
15
0
Distilbert Base Uncased Finetuned Ner Final
基於DistilBERT架構的輕量級命名實體識別(NER)模型,經過特定任務微調
序列標註 Transformers
D
Lilya
15
0
Bert Base Cased Ner Conll2003
Apache-2.0
基於bert-base-cased在conll2003數據集上微調的命名實體識別模型
序列標註 Transformers
B
kamalkraj
38
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
該模型是基於DistilBERT基礎版本微調的命名實體識別(NER)模型,在未知數據集上訓練,評估集F1分數達0.8545。
序列標註 Transformers
D
SnailPoo
15
0
Vihealthbert Base Word
ViHealthBERT是面向越南語健康文本挖掘的預訓練語言模型,在醫療健康領域提供強基線性能
大型語言模型 Transformers
V
demdecuong
633
5
Cybonto Distilbert Base Uncased Finetuned Ner FewNerd
Apache-2.0
該模型是基於distilbert-base-uncased在few_nerd數據集上微調的命名實體識別(NER)模型,在評估集上F1分數達到0.7621。
序列標註 Transformers
C
theResearchNinja
17
0
Afro Xlmr Mini
MIT
AfroXLMR-mini是通過對XLM-R-miniLM模型在17種非洲語言上進行掩碼語言模型(MLM)適應訓練而創建的,涵蓋了非洲主要語系及3種高資源語言(阿拉伯語、法語和英語)。
大型語言模型 Transformers
A
Davlan
66
0
Afro Xlmr Small
MIT
針對17種非洲語言優化的XLM-R小型變體,通過詞彙縮減和多語言自適應訓練提升性能
大型語言模型 Transformers
A
Davlan
33
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註 Transformers
D
ACSHCSE
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT-base-uncased模型在conll2003數據集上微調的命名實體識別模型,在NER任務上表現出色。
序列標註 Transformers
D
issifuamajeed
947
0
Roberta Base Wechsel Ukrainian
MIT
該模型是通過WECHSEL方法將roberta-base遷移至烏克蘭語的版本,在多個烏克蘭語NLP任務上表現優異。
大型語言模型 Transformers 其他
R
benjamin
16
0
Mobilebert Finetuned Ner
MIT
基於MobileBERT架構微調的命名實體識別模型
序列標註 Transformers
M
vumichien
39
0
Bert Base NER
MIT
基於BERT-base的命名實體識別模型,可識別地點、組織、人名等四類實體
序列標註 Transformers 英語
B
optimum
69
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調,適用於英文文本的實體標記任務。
序列標註 Transformers
D
tiennvcs
15
0
Lvbert
Apache-2.0
基於BERT架構的拉脫維亞語預訓練語言模型,適用於多種自然語言理解任務
大型語言模型 Transformers 其他
L
AiLab-IMCS-UL
473
4
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase