# 高精度NLP

Orpo Med V3
Apache-2.0
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型 Transformers
O
Jayant9928
2,852
3
Tookabert Base
Apache-2.0
TookaBERT是基于波斯语训练的编码器模型家族,包含基础版和大规模版两个版本,适用于多种自然语言处理任务。
大型语言模型 Transformers 其他
T
PartAI
127
24
Llama2 Alpaca Sft 2epoch
Apache-2.0
这是一个基于Apache-2.0许可证的文本生成模型,具体功能和用途待补充。
大型语言模型 Transformers 英语
L
zhangchuheng123
93
1
Ruroberta Large Rucola
Apache-2.0
基于RuRoBERTa-large模型微调的语言可接受性分类模型,用于俄语文本的语法正确性判断
文本分类 Transformers 其他
R
RussianNLP
1,282
8
Camembert Keyword Extractor
MIT
基于camembert-base微调的法语关键词提取模型,擅长从法语文本中识别关键信息
大型语言模型 Transformers 法语
C
yanekyuk
161.42k
13
Nbme Roberta Large
MIT
基于roberta-large微调的模型,用于特定任务处理,评估损失值为0.7825
大型语言模型 Transformers
N
smeoni
35
0
Chinese Bert Wwm Finetuned Jd
Apache-2.0
该模型是基于hfl/chinese-bert-wwm在未知数据集上微调得到的版本,适用于中文文本处理任务。
大型语言模型 Transformers
C
wangmiaobeng
24
0
Bert Base Cased Squad2
这是一个基于BERT架构的基础模型,专门在SQuAD v2数据集上进行了训练,适用于问答任务。
问答系统 Transformers
B
ydshieh
39
0
Indonesian Roberta Base Posp Tagger
MIT
这是一个基于印尼语RoBERTa模型微调的词性标注模型,在indonlu数据集上训练,用于印尼语文本的词性标注任务。
序列标注 Transformers 其他
I
w11wo
2.2M
7
Distilbert Base Uncased Finetuned Cola 4
Apache-2.0
基于DistilBERT的微调模型,用于语法可接受性分类任务,在评估集上表现出色。
大型语言模型 Transformers
D
fadhilarkan
6
0
Roberta Base Cuad
该模型是RoBERTa基础版的微调版本,专门针对合同理解任务进行优化,使用CUAD数据集训练。
大型语言模型 Transformers 英语
R
akdeniz27
249
0
Deberta V2 Xlarge Cuad
该模型是DeBERTa v2 XLarge的微调版本,专门针对合同理解任务进行优化,使用CUAD数据集训练。
大型语言模型 Transformers 英语
D
akdeniz27
122
2
Mrc Pretrained Roberta Large 1
KLUE-RoBERTa-large是基于RoBERTa架构的韩语预训练语言模型,由韩国研究团队开发,针对韩语自然语言处理任务进行了优化。
大型语言模型 Transformers
M
this-is-real
14
0
Deberta V3 Small Finetuned Cola
MIT
该模型是在GLUE COLA数据集上对DeBERTa-v3-small进行微调的版本,用于语言学可接受性判断任务。
文本分类 Transformers 英语
D
mrm8488
16
3
Bert Base Uncased Mnli Sparse 70 Unstructured No Classifier
本模型由bert-base-uncased-sparse-70-unstructured在MNLI(GLUE基准测试)任务上微调而成,移除了分类器层以便更便捷地加载至其他下游任务进行训练。
大型语言模型 Transformers 英语
B
Intel
17
0
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase