# 英語NLP

Neobert GGUF
MIT
這是chandar-lab/NeoBERT模型的靜態量化版本,旨在減少模型存儲空間和計算資源需求。
大型語言模型 Transformers 英語
N
mradermacher
219
1
Seed Coder 8B Instruct GGUF
MIT
該模型經過自行量化處理,輸出和嵌入張量量化為f16格式,其餘張量量化為q5_k或q6_k格式,體積更小且性能與純f16相當。
大型語言模型 英語
S
ZeroWw
434
1
Falcon H1 0.5B Base
其他
Falcon-H1是由TII開發的混合Transformers + Mamba架構的僅解碼因果模型,專注於英語NLP任務,性能優異。
大型語言模型 Transformers
F
tiiuae
485
10
T0 3B
Apache-2.0
T0++是基於T5架構的自然語言處理模型,通過多任務提示訓練實現零樣本任務泛化能力,在多種NLP任務上超越GPT-3且體積更小。
大型語言模型 Transformers 英語
T
bigscience
3,723
100
Olmo 2 0425 1B SFT
Apache-2.0
OLMo 2 1B SFT是基於OLMo-2-0425-1B模型的監督微調版本,在Tulu 3數據集上訓練,旨在實現多種任務的最先進性能。
大型語言模型 Transformers 英語
O
allenai
1,759
2
Falcon E 1B Base
其他
Falcon-E-1B-Base 是由 TII 開發的一個高效 1.58 位語言模型,採用純 Transformer 架構,專為邊緣設備優化設計。
大型語言模型 Transformers
F
tiiuae
53
4
Bonsai
盆景是一個擁有5億參數的小型三值權重語言模型,採用Llama架構和Mistral分詞器,訓練使用的標記數不到50億。
大型語言模型 Transformers
B
deepgrove
113
8
Ro001
Apache-2.0
基於distilbert-base-uncased微調的文本分類模型,F1分數為0.6147
大型語言模型 Transformers
R
jiyometrik
23
1
Llama 3.1 Tulu 3.1 8B
Tülu 3 是領先的指令跟隨模型家族,提供完全開源的數據、代碼和訓練方案作為現代技術的綜合指南。3.1版本在強化學習階段進行了改進,性能全面提升。
大型語言模型 Transformers 英語
L
allenai
3,643
33
Stella En 400M V5
MIT
Stella 400M v5 是一個英語文本嵌入模型,在多個文本分類和檢索任務上表現出色。
大型語言模型 Transformers 其他
S
billatsectorflow
7,630
3
Distilbert Emotion
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達到94%
文本分類 Transformers
D
asimmetti
32
1
EMOTION AI
Apache-2.0
基於DistilBERT的情感分析模型,在未知數據集上微調,準確率為56.16%
文本分類 Transformers
E
Hemg
20
1
Modernbert Large Zeroshot V1
MIT
基於ModernBERT-large微調的自然語言推理模型,專門用於零樣本分類任務
文本分類 Transformers 英語
M
r-f
54
2
News Category Classifier
基於DistilBERT架構的輕量級文本分類模型,用於將英文新聞分類為國際、體育、商業和科技四大類別
文本分類 Transformers
N
ranudee
526
1
Dunzhang Stella En 400M V5
MIT
Stella 400M 是一箇中等規模的英語文本處理模型,專注於分類和信息檢索任務。
文本分類 Transformers 其他
D
Marqo
17.20k
7
Meta Llama 3.1 8B Instruct Abliterated GGUF
MIT
一個採用混合量化技術的文本生成模型,輸出和嵌入張量使用f16格式,其餘張量採用q5_k或q6_k量化,體積小於標準q8_0量化格式且性能與純f16版本持平。
大型語言模型 英語
M
ZeroWw
98
17
Clinical T5
Apache-2.0
這是一個基於T5-small模型微調的臨床筆記摘要模型,主要用於生成臨床筆記的摘要。
文本生成 Transformers 英語
C
hossboll
589
0
Mental Alpaca
這是一個通過在線文本數據進行心理健康預測的微調大型語言模型。
大型語言模型 Transformers 英語
M
NEU-HAI
180
9
Gpt2 Emotion
MIT
基於GPT-2架構的英語情感文本生成模型,支持六種基礎情感類別作為生成條件。
大型語言模型 Transformers 英語
G
heegyu
76
2
Instructor Large
Apache-2.0
INSTRUCTOR 是一個基於 T5 架構的文本嵌入模型,專注於句子相似度計算和文本分類任務,支持英語語言處理。
文本嵌入 Transformers 英語
I
hkunlp
186.12k
508
Med KEBERT
Openrail
這是一個基於BERT架構的生物醫學領域預訓練語言模型,適用於處理生物醫學文本數據。
大型語言模型 Transformers 英語
M
xmcmic
769
1
Distilbert Base Uncased Becasv2 6
Apache-2.0
該模型是基於distilbert-base-uncased在becasv2數據集上微調的版本,主要用於文本分類任務。
大型語言模型 Transformers
D
Evelyn18
16
0
Distilbert Base Uncased Becasv2 1
Apache-2.0
基於distilbert-base-uncased模型在becasv2數據集上微調的版本,主要用於文本相關任務。
大型語言模型 Transformers
D
Evelyn18
16
0
Distilbert Base Uncased Becas 6
Apache-2.0
該模型是基於distilbert-base-uncased在becasv2數據集上微調的版本,主要用於文本生成任務。
大型語言模型 Transformers
D
Evelyn18
17
0
Distilbert Base Uncased Becas 4
Apache-2.0
基於distilbert-base-uncased在becasv2數據集上微調的文本分類模型
大型語言模型 Transformers
D
Evelyn18
20
0
Roberta Base Finetuned Squad
MIT
基於RoBERTa-base模型在SQuAD 2.0數據集上微調的問答模型,用於回答基於給定文本的問題
問答系統 Transformers
R
janeel
16
0
Autotrain Mbtinlp 798824628
這是一個使用AutoTrain訓練的多類別分類模型,用於MBTI人格類型分析
文本分類 Transformers 英語
A
Sathira
30
3
Distilbert Base Uncased Finetuned Imdb
Apache-2.0
該模型是基於DistilBERT基礎模型在IMDB數據集上微調的版本,主要用於文本情感分析任務。
大型語言模型 Transformers
D
salihkavaf
67
0
Distilroberta Base SmithsModel2
Apache-2.0
基於distilroberta-base微調的模型,適用於特定NLP任務
大型語言模型 Transformers
D
stevems1
22
0
Distilroberta Base 1
Apache-2.0
基於distilroberta-base模型微調的版本,適用於文本相關任務
大型語言模型 Transformers
D
uhlenbeckmew
56
0
Mobilebert Uncased Squad V2
MIT
基於MobileBERT架構的問答模型,針對SQuAD v2數據集進行了微調
問答系統 Transformers
M
vumichien
32
0
Roberta Base Squad2
基於RoBERTa-base的英語抽取式問答模型,在SQuAD 2.0數據集上訓練,支持FARM與Transformers框架轉換
問答系統 Transformers 英語
R
optimum
99
1
Distilbert Base Uncased Sst2 Train 32 1
Apache-2.0
該模型是基於distilbert-base-uncased在SST2數據集上微調的版本,主要用於情感分析任務。
文本分類 Transformers
D
SetFit
16
0
Distilbert Base Uncased Sst2 Train 8 6
Apache-2.0
基於DistilBERT-base-uncased模型在SST-2數據集上微調的情感分析模型,準確率為75.23%。
文本分類 Transformers
D
SetFit
17
0
Autonlp Text Hateful Memes 36789092
這是一個通過AutoNLP訓練的二元分類模型,用於檢測文本中的仇恨言論內容。
文本分類 Transformers 英語
A
am4nsolanki
25
3
Autonlp Tweet Sentiment Extraction 20114061
這是一個基於AutoNLP訓練的多類別分類模型,專門用於推文情感分析。
文本分類 Transformers 英語
A
amansolanki
453
0
BERT Tweet Sentiment 50k 5eps
Apache-2.0
基於BERT-base-uncased微調的推特情感分析模型,在50k數據上訓練5輪,驗證準確率達82.91%
文本分類 Transformers
B
joe5campbell
14
0
Distilbert Token Itr0 1e 05 All 01 03 2022 14 33 33
Apache-2.0
該模型是基於DistilBERT在未指定數據集上微調的版本,主要用於文本分類任務。
大型語言模型 Transformers
D
ali2066
15
0
Minilm L6 H384 Uncased
MIT
這是microsoft/MiniLM-L12-H384-uncased的6層精簡版本,通過每隔一層保留結構實現輕量化
大型語言模型
M
nreimers
9,300
36
Albert Small V2
ALBERT Small v2 是 ALBERT-base-v2 的 6 層輕量級版本,基於 Transformer 架構,適用於自然語言處理任務。
大型語言模型 Transformers
A
nreimers
62
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase