Orpo Med V3
Apache-2.0
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

O
Jayant9928
2,852
3
Tookabert Base
Apache-2.0
TookaBERT是基于波斯语训练的编码器模型家族,包含基础版和大规模版两个版本,适用于多种自然语言处理任务。
大型语言模型
Transformers 其他

T
PartAI
127
24
Llama2 Alpaca Sft 2epoch
Apache-2.0
这是一个基于Apache-2.0许可证的文本生成模型,具体功能和用途待补充。
大型语言模型
Transformers 英语

L
zhangchuheng123
93
1
Ruroberta Large Rucola
Apache-2.0
基于RuRoBERTa-large模型微调的语言可接受性分类模型,用于俄语文本的语法正确性判断
文本分类
Transformers 其他

R
RussianNLP
1,282
8
Camembert Keyword Extractor
MIT
基于camembert-base微调的法语关键词提取模型,擅长从法语文本中识别关键信息
大型语言模型
Transformers 法语

C
yanekyuk
161.42k
13
Nbme Roberta Large
MIT
基于roberta-large微调的模型,用于特定任务处理,评估损失值为0.7825
大型语言模型
Transformers

N
smeoni
35
0
Chinese Bert Wwm Finetuned Jd
Apache-2.0
该模型是基于hfl/chinese-bert-wwm在未知数据集上微调得到的版本,适用于中文文本处理任务。
大型语言模型
Transformers

C
wangmiaobeng
24
0
Bert Base Cased Squad2
这是一个基于BERT架构的基础模型,专门在SQuAD v2数据集上进行了训练,适用于问答任务。
问答系统
Transformers

B
ydshieh
39
0
Indonesian Roberta Base Posp Tagger
MIT
这是一个基于印尼语RoBERTa模型微调的词性标注模型,在indonlu数据集上训练,用于印尼语文本的词性标注任务。
序列标注
Transformers 其他

I
w11wo
2.2M
7
Distilbert Base Uncased Finetuned Cola 4
Apache-2.0
基于DistilBERT的微调模型,用于语法可接受性分类任务,在评估集上表现出色。
大型语言模型
Transformers

D
fadhilarkan
6
0
Roberta Base Cuad
该模型是RoBERTa基础版的微调版本,专门针对合同理解任务进行优化,使用CUAD数据集训练。
大型语言模型
Transformers 英语

R
akdeniz27
249
0
Deberta V2 Xlarge Cuad
该模型是DeBERTa v2 XLarge的微调版本,专门针对合同理解任务进行优化,使用CUAD数据集训练。
大型语言模型
Transformers 英语

D
akdeniz27
122
2
Mrc Pretrained Roberta Large 1
KLUE-RoBERTa-large是基于RoBERTa架构的韩语预训练语言模型,由韩国研究团队开发,针对韩语自然语言处理任务进行了优化。
大型语言模型
Transformers

M
this-is-real
14
0
Deberta V3 Small Finetuned Cola
MIT
该模型是在GLUE COLA数据集上对DeBERTa-v3-small进行微调的版本,用于语言学可接受性判断任务。
文本分类
Transformers 英语

D
mrm8488
16
3
Bert Base Uncased Mnli Sparse 70 Unstructured No Classifier
本模型由bert-base-uncased-sparse-70-unstructured在MNLI(GLUE基准测试)任务上微调而成,移除了分类器层以便更便捷地加载至其他下游任务进行训练。
大型语言模型
Transformers 英语

B
Intel
17
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98