La Core Web Lg
MIT
基于spaCy的拉丁语处理模型,支持多种自然语言处理任务。
序列标注 其他
L
latincy
272
6
Bert Base Vietnamese Ud Goeswith
这是一个基于越南语文本预训练的BERT模型,用于词性标注和依存句法分析。
序列标注
Transformers 其他

B
KoichiYasuoka
17
2
Tr Core News Lg
土耳其语大型自然语言处理管道,包含标记化、词性标注、形态分析、词形还原、依存句法分析和命名实体识别等功能。
序列标注 其他
T
turkish-nlp-suite
94
8
Tr Core News Trf
土耳其语转换器管道,用于TrSpaCy,包含转换器、标记器、形态分析器、词形还原器、解析器和命名实体识别器组件。
序列标注 其他
T
turkish-nlp-suite
208
16
Deberta Base Japanese Wikipedia
基于日语维基百科和青空文库文本预训练的DeBERTa(V2)模型,适用于日语文本处理任务
大型语言模型
Transformers 日语

D
KoichiYasuoka
32
2
Roberta Base Coptic Upos
基于RoBERTa的科普特语词性标注和依存句法分析模型
序列标注
Transformers 其他

R
KoichiYasuoka
67
0
Fi Core News Lg
spaCy提供的针对CPU优化的芬兰语处理流程,包含词性标注、依存分析、命名实体识别等完整NLP功能
序列标注 其他
F
spacy
53
0
Ko Core News Lg
针对CPU优化的韩语处理流程,包含分词、词性标注、依存分析、命名实体识别等完整NLP功能
序列标注 韩语
K
spacy
52
2
Ko Core News Md
针对CPU优化的韩语处理流程,包含分词、词性标注、依存分析、命名实体识别等完整NLP功能
序列标注 韩语
K
spacy
16
0
Ko Core News Sm
针对CPU优化的韩语处理流程,包含分词、词性标注、依存分析、命名实体识别等功能
序列标注 韩语
K
spacy
62
1
Sv Core News Lg
针对CPU优化的瑞典语自然语言处理流程,包含词性标注、命名实体识别等完整NLP组件
序列标注 其他
S
spacy
56
0
Sv Core News Sm
spaCy提供的瑞典语小型自然语言处理模型,针对CPU优化,包含分词、词性标注、依存分析等完整NLP流程
序列标注 其他
S
spacy
87
1
Roberta Base Serbian Upos
这是一个针对塞尔维亚语的RoBERTa模型,专门用于词性标注和依存句法分析。
序列标注
Transformers 其他

R
KoichiYasuoka
64
0
Mbertu
基于多语言BERT初始检查点、在马耳他语语料库v4.0上预训练的马耳他语多语言模型
大型语言模型
Transformers 其他

M
MLRS
302
3
Bertu
BERTu是一个基于BERT架构的马耳他语单语模型,专为低资源语言设计,支持多种自然语言处理任务。
大型语言模型
Transformers 其他

B
MLRS
4,486
6
Hu Core News Trf
匈牙利语HuSpaCy的transformer管道(huBERT),包含多种自然语言处理组件
序列标注 其他
H
huspacy
118
3
Bert Base Russian Upos
基于UD_Russian预训练的BERT模型,用于俄语的词性标注和依存句法分析
序列标注
Transformers 其他

B
KoichiYasuoka
87
4
Bert Large German Upos
MIT
基于UD_German-HDT预训练的BERT模型,用于德语词性标注和依存句法分析
序列标注
Transformers 支持多种语言

B
KoichiYasuoka
41
1
Roberta Base Ukrainian Upos
基于乌克兰语UberText语料库预训练的RoBERTa模型,专用于词性标注(UPOS)和依存句法分析任务
序列标注
Transformers 其他

R
KoichiYasuoka
25
4
Distil Slovakbert Upos
基于distil-slovakbert在通用依存关系sk_snk数据集上微调的斯洛伐克语词性标注模型
序列标注
Transformers

D
crabz
16
0
Ro Core News Sm
针对CPU优化的罗马尼亚语自然语言处理模型,包含分词、词性标注、依存分析、命名实体识别等功能
序列标注 其他
R
spacy
17
0
Zh Core Web Lg
MIT
针对CPU优化的中文自然语言处理流程,包含分词、词性标注、依存分析、命名实体识别等功能
序列标注 中文
Z
spacy
61
2
Fr Core News Sm
spaCy提供的针对CPU优化的法语自然语言处理小型模型,包含分词、词性标注、依存分析、命名实体识别等功能
序列标注 法语
F
spacy
160
1
Da Core News Lg
针对CPU优化的丹麦语处理流程,包含分词、词性标注、依存句法分析、命名实体识别等完整NLP功能
序列标注 其他
D
spacy
78
0
Xlm Roberta Base Ft Udpos28 Ca
Apache-2.0
基于XLM-RoBERTa的多语言词性标注模型,支持加泰罗尼亚语等多种语言
序列标注
Transformers 其他

X
wietsedv
24
0
En Core Web Trf
MIT
基于Transformer的英语NLP流水线模型,提供高性能的命名实体识别、词性标注和依存分析功能。
序列标注 英语
E
spacy
185
47
It Core News Lg
针对CPU优化的意大利语处理流程,包含分词、词性标注、依存分析、命名实体识别等功能
序列标注 其他
I
spacy
55
3
Xlm Roberta Base Ft Udpos28 Sk
Apache-2.0
基于XLM-RoBERTa的多语言词性标注模型,专门针对斯洛伐克语优化
序列标注
Transformers 其他

X
wietsedv
14
1
Ro Core News Lg
针对CPU优化的罗马尼亚语处理流程,包含标记分类、依存分析、命名实体识别等完整NLP组件
序列标注 其他
R
spacy
55
2
Fr Core News Lg
spaCy提供的大型法语语言处理模型,专为CPU优化,支持多种NLP任务
序列标注 法语
F
spacy
1,572
2
Es Core News Md
Gpl-3.0
spaCy提供的西班牙语中等规模NLP处理流程,针对CPU优化,包含完整的语言处理组件
序列标注 西班牙语
E
spacy
447
1
En Core Web Lg
MIT
spaCy提供的大型英语语言处理模型,针对CPU优化,包含完整的自然语言处理流程
序列标注 英语
E
spacy
129
31
Da Dacy Large Trf
Apache-2.0
DaCy是一个丹麦语处理框架,拥有最先进的流水线以及分析丹麦语流水线的功能。
序列标注 其他
D
chcaa
37
4
Nl Core News Md
针对CPU优化的荷兰语处理流程,包含分词、词性标注、依存分析、命名实体识别等功能
序列标注 其他
N
spacy
15
0
Lt Core News Lg
针对CPU优化的立陶宛语处理流程,包含分词、词性标注、依存分析、命名实体识别等完整NLP功能
序列标注 其他
L
spacy
52
0
Es Core News Sm
Gpl-3.0
针对CPU优化的西班牙语自然语言处理流程,包含标记化、词性标注、依存分析、命名实体识别等功能。
序列标注 西班牙语
E
spacy
148
2
Ja Core News Lg
spaCy提供的针对CPU优化的日语处理流程,包含分词、词性标注、依存句法分析、命名实体识别等功能
序列标注 日语
J
spacy
53
0
Es Core News Lg
Gpl-3.0
针对CPU优化的西班牙语处理流程,包含分词、词性标注、依存分析、命名实体识别等功能
序列标注 西班牙语
E
spacy
52
1
Nb Core News Sm
MIT
针对CPU优化的挪威博克马尔语处理流程,包含标记分类、依存分析、命名实体识别等功能
序列标注 其他
N
spacy
58
0
Ru Core News Sm
MIT
spaCy提供的针对CPU优化的俄语处理流程,包含分词、词性标注、依存分析、命名实体识别等功能
序列标注 其他
R
spacy
1,310
4
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98