# 英语NLP

Neobert GGUF
MIT
这是chandar-lab/NeoBERT模型的静态量化版本,旨在减少模型存储空间和计算资源需求。
大型语言模型 Transformers 英语
N
mradermacher
219
1
Seed Coder 8B Instruct GGUF
MIT
该模型经过自行量化处理,输出和嵌入张量量化为f16格式,其余张量量化为q5_k或q6_k格式,体积更小且性能与纯f16相当。
大型语言模型 英语
S
ZeroWw
434
1
Falcon H1 0.5B Base
其他
Falcon-H1是由TII开发的混合Transformers + Mamba架构的仅解码因果模型,专注于英语NLP任务,性能优异。
大型语言模型 Transformers
F
tiiuae
485
10
T0 3B
Apache-2.0
T0++是基于T5架构的自然语言处理模型,通过多任务提示训练实现零样本任务泛化能力,在多种NLP任务上超越GPT-3且体积更小。
大型语言模型 Transformers 英语
T
bigscience
3,723
100
Olmo 2 0425 1B SFT
Apache-2.0
OLMo 2 1B SFT是基于OLMo-2-0425-1B模型的监督微调版本,在Tulu 3数据集上训练,旨在实现多种任务的最先进性能。
大型语言模型 Transformers 英语
O
allenai
1,759
2
Falcon E 1B Base
其他
Falcon-E-1B-Base 是由 TII 开发的一个高效 1.58 位语言模型,采用纯 Transformer 架构,专为边缘设备优化设计。
大型语言模型 Transformers
F
tiiuae
53
4
Bonsai
盆景是一个拥有5亿参数的小型三值权重语言模型,采用Llama架构和Mistral分词器,训练使用的标记数不到50亿。
大型语言模型 Transformers
B
deepgrove
113
8
Ro001
Apache-2.0
基于distilbert-base-uncased微调的文本分类模型,F1分数为0.6147
大型语言模型 Transformers
R
jiyometrik
23
1
Llama 3.1 Tulu 3.1 8B
Tülu 3 是领先的指令跟随模型家族,提供完全开源的数据、代码和训练方案作为现代技术的综合指南。3.1版本在强化学习阶段进行了改进,性能全面提升。
大型语言模型 Transformers 英语
L
allenai
3,643
33
Stella En 400M V5
MIT
Stella 400M v5 是一个英语文本嵌入模型,在多个文本分类和检索任务上表现出色。
大型语言模型 Transformers 其他
S
billatsectorflow
7,630
3
Distilbert Emotion
Apache-2.0
基于distilbert-base-uncased微调的情感分析模型,在评估集上准确率达到94%
文本分类 Transformers
D
asimmetti
32
1
EMOTION AI
Apache-2.0
基于DistilBERT的情感分析模型,在未知数据集上微调,准确率为56.16%
文本分类 Transformers
E
Hemg
20
1
Modernbert Large Zeroshot V1
MIT
基于ModernBERT-large微调的自然语言推理模型,专门用于零样本分类任务
文本分类 Transformers 英语
M
r-f
54
2
News Category Classifier
基于DistilBERT架构的轻量级文本分类模型,用于将英文新闻分类为国际、体育、商业和科技四大类别
文本分类 Transformers
N
ranudee
526
1
Dunzhang Stella En 400M V5
MIT
Stella 400M 是一个中等规模的英语文本处理模型,专注于分类和信息检索任务。
文本分类 Transformers 其他
D
Marqo
17.20k
7
Meta Llama 3.1 8B Instruct Abliterated GGUF
MIT
一个采用混合量化技术的文本生成模型,输出和嵌入张量使用f16格式,其余张量采用q5_k或q6_k量化,体积小于标准q8_0量化格式且性能与纯f16版本持平。
大型语言模型 英语
M
ZeroWw
98
17
Clinical T5
Apache-2.0
这是一个基于T5-small模型微调的临床笔记摘要模型,主要用于生成临床笔记的摘要。
文本生成 Transformers 英语
C
hossboll
589
0
Mental Alpaca
这是一个通过在线文本数据进行心理健康预测的微调大型语言模型。
大型语言模型 Transformers 英语
M
NEU-HAI
180
9
Gpt2 Emotion
MIT
基于GPT-2架构的英语情感文本生成模型,支持六种基础情感类别作为生成条件。
大型语言模型 Transformers 英语
G
heegyu
76
2
Instructor Large
Apache-2.0
INSTRUCTOR 是一个基于 T5 架构的文本嵌入模型,专注于句子相似度计算和文本分类任务,支持英语语言处理。
文本嵌入 Transformers 英语
I
hkunlp
186.12k
508
Med KEBERT
Openrail
这是一个基于BERT架构的生物医学领域预训练语言模型,适用于处理生物医学文本数据。
大型语言模型 Transformers 英语
M
xmcmic
769
1
Distilbert Base Uncased Becasv2 6
Apache-2.0
该模型是基于distilbert-base-uncased在becasv2数据集上微调的版本,主要用于文本分类任务。
大型语言模型 Transformers
D
Evelyn18
16
0
Distilbert Base Uncased Becasv2 1
Apache-2.0
基于distilbert-base-uncased模型在becasv2数据集上微调的版本,主要用于文本相关任务。
大型语言模型 Transformers
D
Evelyn18
16
0
Distilbert Base Uncased Becas 6
Apache-2.0
该模型是基于distilbert-base-uncased在becasv2数据集上微调的版本,主要用于文本生成任务。
大型语言模型 Transformers
D
Evelyn18
17
0
Distilbert Base Uncased Becas 4
Apache-2.0
基于distilbert-base-uncased在becasv2数据集上微调的文本分类模型
大型语言模型 Transformers
D
Evelyn18
20
0
Roberta Base Finetuned Squad
MIT
基于RoBERTa-base模型在SQuAD 2.0数据集上微调的问答模型,用于回答基于给定文本的问题
问答系统 Transformers
R
janeel
16
0
Autotrain Mbtinlp 798824628
这是一个使用AutoTrain训练的多类别分类模型,用于MBTI人格类型分析
文本分类 Transformers 英语
A
Sathira
30
3
Distilbert Base Uncased Finetuned Imdb
Apache-2.0
该模型是基于DistilBERT基础模型在IMDB数据集上微调的版本,主要用于文本情感分析任务。
大型语言模型 Transformers
D
salihkavaf
67
0
Distilroberta Base SmithsModel2
Apache-2.0
基于distilroberta-base微调的模型,适用于特定NLP任务
大型语言模型 Transformers
D
stevems1
22
0
Distilroberta Base 1
Apache-2.0
基于distilroberta-base模型微调的版本,适用于文本相关任务
大型语言模型 Transformers
D
uhlenbeckmew
56
0
Mobilebert Uncased Squad V2
MIT
基于MobileBERT架构的问答模型,针对SQuAD v2数据集进行了微调
问答系统 Transformers
M
vumichien
32
0
Roberta Base Squad2
基于RoBERTa-base的英语抽取式问答模型,在SQuAD 2.0数据集上训练,支持FARM与Transformers框架转换
问答系统 Transformers 英语
R
optimum
99
1
Autonlp Text Hateful Memes 36789092
这是一个通过AutoNLP训练的二元分类模型,用于检测文本中的仇恨言论内容。
文本分类 Transformers 英语
A
am4nsolanki
25
3
BERT Tweet Sentiment TEST
Apache-2.0
基于bert-base-uncased微调的推特情感分析模型,在评估集上取得100%验证准确率
文本分类 Transformers
B
joe5campbell
14
0
BERT Tweet Sentiment 50k 5eps
Apache-2.0
基于BERT-base-uncased微调的推特情感分析模型,在50k数据上训练5轮,验证准确率达82.91%
文本分类 Transformers
B
joe5campbell
14
0
Distilbert Base Uncased Sst5 All Train
Apache-2.0
该模型是基于DistilBERT基础模型在SST5数据集上微调的文本分类模型,准确率为50.45%。
文本分类 Transformers
D
SetFit
131
0
Bert Base Uncased Sst2 Acc91.1 D37 Hybrid
Apache-2.0
该模型是基于bert-base-uncased在SST-2数据集上微调得到的文本分类模型,通过nn_pruning库进行了剪枝优化,保留了原模型51%的权重,准确率达到91.17%。
文本分类 Transformers 英语
B
echarlaix
172
0
Distilbert Token Itr0 1e 05 All 01 03 2022 14 33 33
Apache-2.0
该模型是基于DistilBERT在未指定数据集上微调的版本,主要用于文本分类任务。
大型语言模型 Transformers
D
ali2066
15
0
Minilm L6 H384 Uncased
MIT
这是microsoft/MiniLM-L12-H384-uncased的6层精简版本,通过每隔一层保留结构实现轻量化
大型语言模型
M
nreimers
9,300
36
Distilbert Base Uncased Sst2 Train 32 1
Apache-2.0
该模型是基于distilbert-base-uncased在SST2数据集上微调的版本,主要用于情感分析任务。
文本分类 Transformers
D
SetFit
16
0
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase