2025年最佳的 6624 个大型语言模型工具

Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型 Transformers
1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型 Transformers 支持多种语言
L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
5.3M
431
Bart Large Mnli
MIT
基于BART-large架构,在MultiNLI数据集上微调的零样本分类模型
大型语言模型
B
facebook
3.7M
1,364
T5 Small
Apache-2.0
T5-Small是谷歌开发的6000万参数文本转换模型,采用统一文本到文本框架处理多种NLP任务
大型语言模型 支持多种语言
T
google-t5
3.7M
450
Flan T5 Base
Apache-2.0
FLAN-T5是基于T5模型通过指令微调优化的语言模型,支持多语言任务处理,在相同参数量下性能优于原T5模型。
大型语言模型 支持多种语言
F
google
3.3M
862
Albert Base V2
Apache-2.0
ALBERT是基于Transformer架构的轻量级预训练语言模型,通过参数共享机制减少内存占用,适用于英语文本处理任务。
大型语言模型 英语
A
albert
3.1M
121
Distilbert Base Multilingual Cased
Apache-2.0
DistilBERT 是 BERT 基础多语言模型的蒸馏版本,保留了 BERT 的 97% 性能但参数更少、速度更快。支持 104 种语言,适用于多种自然语言处理任务。
大型语言模型 Transformers 支持多种语言
D
distilbert
2.8M
187
Distilgpt2
Apache-2.0
DistilGPT2是GPT-2的轻量级蒸馏版本,拥有8200万参数,保留了GPT-2的核心文本生成能力,同时体积更小、速度更快。
大型语言模型 英语
D
distilbert
2.7M
527
BLEURT 20 D12
基于PyTorch实现的BLEURT模型,用于自然语言处理中的文本评估任务。
大型语言模型 Transformers
B
lucadiliello
2.6M
1
Llama 3.2 1B Instruct
Llama 3.2是Meta开发的多语言大语言模型系列,包含1B和3B规模的预训练及指令调优生成模型,针对多语言对话场景优化,支持智能检索和摘要任务。
大型语言模型 Transformers 支持多种语言
L
meta-llama
2.4M
901
Qwen2.5 0.5B Instruct
Apache-2.0
专为Gensyn强化学习群设计的0.5B参数指令微调模型,支持本地微调训练
大型语言模型 Transformers 英语
Q
Gensyn
2.4M
5
Qwen2.5 1.5B Instruct
Apache-2.0
专为Gensyn RL Swarm设计的1.5B参数指令微调模型,支持通过点对点强化学习进行本地微调
大型语言模型 Transformers 英语
Q
Gensyn
2.1M
4
Llama 3.2 1B
Llama 3.2是Meta推出的多语言大语言模型系列,包含1B和3B参数的预训练及指令调优生成模型,针对多语言对话场景优化,支持代理检索和摘要任务。
大型语言模型 Transformers 支持多种语言
L
meta-llama
2.1M
1,866
Bart Base
Apache-2.0
BART是一种结合双向编码器和自回归解码器的Transformer模型,适用于文本生成和理解任务。
大型语言模型 英语
B
facebook
2.1M
183
Bio ClinicalBERT
MIT
Bio+Clinical BERT是从BioBERT初始化的临床BERT模型,在MIMIC III的所有笔记上进行训练,适用于生物医学和临床文本处理。
大型语言模型 英语
B
emilyalsentzer
2.0M
334
Deepseek R1 GGUF
MIT
DeepSeek-R1是由Unsloth优化的1.58-bit动态量化大语言模型,采用MoE架构,支持英语任务处理
大型语言模型 英语
D
unsloth
2.0M
1,045
Biomednlp BiomedBERT Base Uncased Abstract Fulltext
MIT
BiomedBERT是基于PubMed摘要和PubMedCentral全文预训练的生物医学领域专用语言模型,在多项生物医学NLP任务中达到最先进水平。
大型语言模型 英语
B
microsoft
1.7M
240
Deepseek R1
MIT
DeepSeek-R1是深度求索推出的第一代推理模型,通过大规模强化学习训练,在数学、代码和推理任务上表现优异。
大型语言模型 Transformers
D
deepseek-ai
1.7M
12.03k
Codebert Python
该模型是基于microsoft/codebert-base-mlm在Python代码上训练的掩码语言模型,主要用于代码评估和生成任务。
大型语言模型 Transformers
C
neulab
1.7M
25
Camembert Base
MIT
基于RoBERTa构建的法语尖端语言模型,提供6种不同版本
大型语言模型 Transformers 法语
C
almanach
1.7M
87
Firefunction V2 GGUF
FireFunction V2是Fireworks AI开发的具有商业可行许可证的最先进函数调用模型,基于Llama 3训练,支持并行函数调用和良好的指令遵循能力。
大型语言模型
F
MaziyarPanahi
1.6M
18
Deberta V3 Base
MIT
DeBERTaV3是基于DeBERTa改进的预训练语言模型,通过梯度解耦嵌入共享的ELECTRA风格预训练方法提升效率,在自然语言理解任务上表现优异。
大型语言模型 英语
D
microsoft
1.6M
316
Llama 3.2 3B Instruct
Llama 3.2是由Meta开发的多语言大语言模型系列,包含1B和3B规模的预训练及指令调优生成模型,针对多语言对话场景优化。
大型语言模型 Transformers 支持多种语言
L
meta-llama
1.6M
1,391
Finbert
FinBERT是一款专门用于金融文本情感分析的预训练自然语言处理模型
大型语言模型 英语
F
ProsusAI
1.6M
864
Openelm 1 1B Instruct
OpenELM是一组开源高效语言模型,采用分层缩放策略在Transformer模型的每一层中高效分配参数,从而提升模型精度。
大型语言模型 Transformers
O
apple
1.5M
62
Qwen2 7B Instruct GGUF
Qwen2-7B-Instruct的GGUF量化版本,适用于本地部署和推理
大型语言模型
Q
MaziyarPanahi
1.5M
11
Byt5 Small
Apache-2.0
ByT5是谷歌T5的无分词器版本,直接处理原始UTF-8字节,支持多语言文本处理,对噪声数据表现优异。
大型语言模型 支持多种语言
B
google
1.4M
69
Deberta Large Mnli
MIT
DeBERTa-V2-XXLarge是基于解耦注意力机制和增强型掩码解码器的改进型BERT模型,在多项自然语言理解任务上表现优异。
大型语言模型 Transformers 英语
D
microsoft
1.4M
18
Tinyllama 1.1B Chat V1.0
Apache-2.0
小羊驼是一个11亿参数的轻量级Llama模型,通过3万亿标记数据预训练,并经过对话微调和对齐优化,适合资源受限场景。
大型语言模型 Transformers 英语
T
TinyLlama
1.4M
1,237
Bartpho Syllable Base
MIT
BARTpho是一个面向越南语的预训练序列到序列模型,基于BART架构,专门针对越南语进行了优化。
大型语言模型 Transformers
B
vinai
1.3M
1
Stablebeluga2
基于Llama2 70B模型微调的大型语言模型,采用Orca风格数据集训练,擅长执行复杂指令
大型语言模型 Transformers 英语
S
petals-team
1.3M
19
Roberta Base
基于韩语预训练的RoBERTa模型,适用于多种韩语自然语言处理任务。
大型语言模型 Transformers 韩语
R
klue
1.2M
33
Distilroberta Base
Apache-2.0
DistilRoBERTa是RoBERTa-base模型的蒸馏版本,参数更少但速度更快,适用于英语文本处理任务。
大型语言模型 英语
D
distilbert
1.2M
153
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase