2025年最佳 6621 款大型語言模型工具

Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型 Transformers
1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型 Transformers 支持多種語言
L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
5.3M
431
Bart Large Mnli
MIT
基於BART-large架構,在MultiNLI數據集上微調的零樣本分類模型
大型語言模型
B
facebook
3.7M
1,364
T5 Small
Apache-2.0
T5-Small是谷歌開發的6000萬參數文本轉換模型,採用統一文本到文本框架處理多種NLP任務
大型語言模型 支持多種語言
T
google-t5
3.7M
450
Flan T5 Base
Apache-2.0
FLAN-T5是基於T5模型通過指令微調優化的語言模型,支持多語言任務處理,在相同參數量下性能優於原T5模型。
大型語言模型 支持多種語言
F
google
3.3M
862
Albert Base V2
Apache-2.0
ALBERT是基於Transformer架構的輕量級預訓練語言模型,通過參數共享機制減少內存佔用,適用於英語文本處理任務。
大型語言模型 英語
A
albert
3.1M
121
Distilbert Base Multilingual Cased
Apache-2.0
DistilBERT 是 BERT 基礎多語言模型的蒸餾版本,保留了 BERT 的 97% 性能但參數更少、速度更快。支持 104 種語言,適用於多種自然語言處理任務。
大型語言模型 Transformers 支持多種語言
D
distilbert
2.8M
187
Distilgpt2
Apache-2.0
DistilGPT2是GPT-2的輕量級蒸餾版本,擁有8200萬參數,保留了GPT-2的核心文本生成能力,同時體積更小、速度更快。
大型語言模型 英語
D
distilbert
2.7M
527
BLEURT 20 D12
基於PyTorch實現的BLEURT模型,用於自然語言處理中的文本評估任務。
大型語言模型 Transformers
B
lucadiliello
2.6M
1
Llama 3.2 1B Instruct
Llama 3.2是Meta開發的多語言大語言模型系列,包含1B和3B規模的預訓練及指令調優生成模型,針對多語言對話場景優化,支持智能檢索和摘要任務。
大型語言模型 Transformers 支持多種語言
L
meta-llama
2.4M
901
Qwen2.5 0.5B Instruct
Apache-2.0
專為Gensyn強化學習群設計的0.5B參數指令微調模型,支持本地微調訓練
大型語言模型 Transformers 英語
Q
Gensyn
2.4M
5
Qwen2.5 1.5B Instruct
Apache-2.0
專為Gensyn RL Swarm設計的1.5B參數指令微調模型,支持通過點對點強化學習進行本地微調
大型語言模型 Transformers 英語
Q
Gensyn
2.1M
4
Llama 3.2 1B
Llama 3.2是Meta推出的多語言大語言模型系列,包含1B和3B參數的預訓練及指令調優生成模型,針對多語言對話場景優化,支持代理檢索和摘要任務。
大型語言模型 Transformers 支持多種語言
L
meta-llama
2.1M
1,866
Bart Base
Apache-2.0
BART是一種結合雙向編碼器和自迴歸解碼器的Transformer模型,適用於文本生成和理解任務。
大型語言模型 英語
B
facebook
2.1M
183
Bio ClinicalBERT
MIT
Bio+Clinical BERT是從BioBERT初始化的臨床BERT模型,在MIMIC III的所有筆記上進行訓練,適用於生物醫學和臨床文本處理。
大型語言模型 英語
B
emilyalsentzer
2.0M
334
Deepseek R1 GGUF
MIT
DeepSeek-R1是由Unsloth優化的1.58-bit動態量化大語言模型,採用MoE架構,支持英語任務處理
大型語言模型 英語
D
unsloth
2.0M
1,045
Biomednlp BiomedBERT Base Uncased Abstract Fulltext
MIT
BiomedBERT是基於PubMed摘要和PubMedCentral全文預訓練的生物醫學領域專用語言模型,在多項生物醫學NLP任務中達到最先進水平。
大型語言模型 英語
B
microsoft
1.7M
240
Deepseek R1
MIT
DeepSeek-R1是深度求索推出的第一代推理模型,通過大規模強化學習訓練,在數學、代碼和推理任務上表現優異。
大型語言模型 Transformers
D
deepseek-ai
1.7M
12.03k
Codebert Python
該模型是基於microsoft/codebert-base-mlm在Python代碼上訓練的掩碼語言模型,主要用於代碼評估和生成任務。
大型語言模型 Transformers
C
neulab
1.7M
25
Camembert Base
MIT
基於RoBERTa構建的法語尖端語言模型,提供6種不同版本
大型語言模型 Transformers 法語
C
almanach
1.7M
87
Firefunction V2 GGUF
FireFunction V2是Fireworks AI開發的具有商業可行許可證的最先進函數調用模型,基於Llama 3訓練,支持並行函數調用和良好的指令遵循能力。
大型語言模型
F
MaziyarPanahi
1.6M
18
Deberta V3 Base
MIT
DeBERTaV3是基於DeBERTa改進的預訓練語言模型,通過梯度解耦嵌入共享的ELECTRA風格預訓練方法提升效率,在自然語言理解任務上表現優異。
大型語言模型 英語
D
microsoft
1.6M
316
Llama 3.2 3B Instruct
Llama 3.2是由Meta開發的多語言大語言模型系列,包含1B和3B規模的預訓練及指令調優生成模型,針對多語言對話場景優化。
大型語言模型 Transformers 支持多種語言
L
meta-llama
1.6M
1,391
Finbert
FinBERT是一款專門用於金融文本情感分析的預訓練自然語言處理模型
大型語言模型 英語
F
ProsusAI
1.6M
864
Openelm 1 1B Instruct
OpenELM是一組開源高效語言模型,採用分層縮放策略在Transformer模型的每一層中高效分配參數,從而提升模型精度。
大型語言模型 Transformers
O
apple
1.5M
62
Qwen2 7B Instruct GGUF
Qwen2-7B-Instruct的GGUF量化版本,適用於本地部署和推理
大型語言模型
Q
MaziyarPanahi
1.5M
11
Byt5 Small
Apache-2.0
ByT5是谷歌T5的無分詞器版本,直接處理原始UTF-8字節,支持多語言文本處理,對噪聲數據表現優異。
大型語言模型 支持多種語言
B
google
1.4M
69
Deberta Large Mnli
MIT
DeBERTa-V2-XXLarge是基於解耦注意力機制和增強型掩碼解碼器的改進型BERT模型,在多項自然語言理解任務上表現優異。
大型語言模型 Transformers 英語
D
microsoft
1.4M
18
Tinyllama 1.1B Chat V1.0
Apache-2.0
小羊駝是一個11億參數的輕量級Llama模型,通過3萬億標記數據預訓練,並經過對話微調和對齊優化,適合資源受限場景。
大型語言模型 Transformers 英語
T
TinyLlama
1.4M
1,237
Bartpho Syllable Base
MIT
BARTpho是一個面向越南語的預訓練序列到序列模型,基於BART架構,專門針對越南語進行了優化。
大型語言模型 Transformers
B
vinai
1.3M
1
Stablebeluga2
基於Llama2 70B模型微調的大型語言模型,採用Orca風格數據集訓練,擅長執行復雜指令
大型語言模型 Transformers 英語
S
petals-team
1.3M
19
Roberta Base
基於韓語預訓練的RoBERTa模型,適用於多種韓語自然語言處理任務。
大型語言模型 Transformers 韓語
R
klue
1.2M
33
Distilroberta Base
Apache-2.0
DistilRoBERTa是RoBERTa-base模型的蒸餾版本,參數更少但速度更快,適用於英語文本處理任務。
大型語言模型 英語
D
distilbert
1.2M
153
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase