Lite BERT SL
Lite-BERT-SL是一款基於BERT的序列標註模型,專注於金融領域關鍵績效指標(KPIs)的識別,適用於金融文檔解析和信息提取。
序列標註
Transformers 英語

L
AAU-NLP
405
1
Gyr66 Bert Base Chinese Finetuned Ner Onnx
Apache-2.0
這是 gyr66/bert-base-chinese-finetuned-ner 模型的 ONNX 格式轉換版本,用於中文命名實體識別任務。
序列標註
Transformers 中文

G
protectai
171
1
Bert Finetuned Ner
Apache-2.0
基於BERT-base-cased模型在conll2003數據集上微調的命名實體識別模型
序列標註
Transformers

B
fundrais123
23
1
Bert Base Chinese Ws Finetuned Ner All
Gpl-3.0
該模型是基於ckiplab/bert-base-chinese-ws在中文命名實體識別(NER)任務上微調的版本,在評估集上表現出色。
序列標註
Transformers

B
HYM
41
2
Xlm Roberta Large Ner Hrl Finetuned Ner
基於xlm-roberta-large-ner-hrl模型在玩具數據集上微調的命名實體識別模型
序列標註
Transformers

X
kinanmartin
29
0
Xlm Roberta Base Finetuned Panx Fr
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的法語標記分類模型
序列標註
Transformers

X
huangjia
37
0
Bert Finetuned Ner
Apache-2.0
基於bert-base-cased微調的命名實體識別(NER)模型
序列標註
Transformers

B
ankitsharma
14
0
Roberta Base Ner Demo
基於蒙古語RoBERTa-base模型微調的命名實體識別(NER)模型
序列標註
Transformers 其他

R
Buyandelger
15
0
Roberta Large Finetuned Ner
MIT
基於RoBERTa-large模型在conll2003數據集上微調的命名實體識別模型,在NER任務上表現出色。
序列標註
Transformers

R
romainlhardy
39
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在特定數據集上進行了微調
序列標註
Transformers

D
IsaMaks
15
0
Bert Finetuned Ner 0
Apache-2.0
該模型是基於bert-base-cased在未知數據集上微調的版本,主要用於命名實體識別(NER)任務。
序列標註
Transformers

B
mariolinml
15
0
Xlm Roberta Base Finetuned Panx De
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的德語標記分類模型
序列標註
Transformers

X
SimulSt
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註
Transformers

D
hossay
16
0
Xlm Roberta Base Finetuned Panx En
MIT
基於XLM-RoBERTa-base在xtreme數據集上進行微調的標記分類模型
序列標註
Transformers

X
flood
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註
Transformers

D
murdockthedude
15
0
Xlm Roberta Base Finetuned Panx Fr
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的法語標記分類模型
序列標註
Transformers

X
jgriffi
14
0
Distilbert Base Uncased Finetuned TT2 Exam
Apache-2.0
該模型是基於distilbert-base-uncased在conll2003數據集上微調的版本,用於標記分類任務。
序列標註
Transformers

D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調,具有高效的推理性能和較高的準確率。
序列標註
Transformers

D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
這是一個基於DistilBERT的輕量級模型,在CoNLL-2003命名實體識別(NER)任務上進行了微調。
序列標註
Transformers

D
guhuawuli
15
0
Hiner Original Xlm Roberta Large
該模型是基於XLM-RoBERTa-large架構在HiNER-original數據集上訓練的命名實體識別模型,專門用於標記分類任務。
序列標註
Transformers

H
cfilt
56
1
Test
Apache-2.0
該模型是基於hfl/chinese-bert-wwm-ext在conll2003數據集上微調的版本,用於標記分類任務。
序列標註
Transformers

T
vegetable
15
0
Distilbert Base Uncased Finetuned Ner Final
基於DistilBERT架構的輕量級命名實體識別(NER)模型,經過特定任務微調
序列標註
Transformers

D
Lilya
15
0
Bert Base Cased Ner Conll2003
Apache-2.0
基於bert-base-cased在conll2003數據集上微調的命名實體識別模型
序列標註
Transformers

B
kamalkraj
38
0
Keyphrase Extraction Distilbert Inspec
MIT
基於DistilBERT的英文關鍵詞提取模型,在科學論文摘要領域表現優異。
序列標註
Transformers 英語

K
ml6team
22.07k
27
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調,適用於英文文本的實體標記任務。
序列標註
Transformers

D
tiennvcs
15
0
Distilbert Base Uncased Finetuned Pos
Apache-2.0
基於DistilBERT的輕量級標記分類模型,在conll2003數據集上微調,用於詞性標註任務
序列標註
Transformers

D
tbosse
17
0
Roberta Finetuned Ner
MIT
基於xlm-roberta-base微調的命名實體識別(NER)模型,在評估集上表現出色(F1值0.9777)
序列標註
Transformers

R
kSaluja
25
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註
Transformers

D
MikhailGalperin
15
0
Bert Tiny Finetuned Ner
該模型是基於bert-tiny在conll2003數據集上微調的命名實體識別(NER)模型
序列標註
Transformers

B
gagan3012
89
4
BERT NER Ep5 PAD 50 Finetuned Ner
Apache-2.0
基於bert-base-cased微調的命名實體識別模型,在評估集上F1值達到0.6920
序列標註
Transformers

B
suwani
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註
Transformers

D
histinct7002
15
0
Chunk English Fast
Flair自帶的英語快速短語組塊分析模型,用於識別句子中的名詞短語、動詞短語等語法結構。
序列標註 英語
C
flair
92
5
Flair Ner
Flair NER模型是基於CoNLL-2003數據集訓練的序列標註模型,用於命名實體識別任務。
序列標註 英語
F
julien-c
1,412
0
Upos English Fast
Flair自帶的英語通用詞性標註快速模型,基於Ontonotes數據集訓練,F1分數達98.47
序列標註 英語
U
flair
3,677
5
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註
Transformers

D
cogito233
16
0
BERT NER Ep6 PAD 50 Finetuned Ner
Apache-2.0
基於bert-base-cased微調的命名實體識別(NER)模型,在未知數據集上訓練6個epoch,表現中等水平
序列標註
Transformers

B
suwani
14
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調,適用於英文文本的實體標註任務。
序列標註
Transformers

D
codingJacob
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調,具有高效的推理性能和較高的準確率。
序列標註
Transformers

D
indridinn
15
0
Bert Finetuned Ner
Apache-2.0
基於BERT-base-cased在conll2003數據集上微調的命名實體識別模型
序列標註
Transformers

B
huggingface-course
3,835
15
Indonesian Roberta Base Posp Tagger
MIT
這是一個基於印尼語RoBERTa模型微調的詞性標註模型,在indonlu數據集上訓練,用於印尼語文本的詞性標註任務。
序列標註
Transformers 其他

I
w11wo
2.2M
7
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98