# 低資源NLP

Neurobert Mini GGUF
MIT
基於boltuix/NeuroBERT-Mini的靜態量化版本,專為邊緣設備優化的微型BERT模型
大型語言模型 Transformers
N
mradermacher
219
2
Simplestories 30M
MIT
SimpleStories 是一個為可解釋性研究設計的微型模型家族,基於 SimpleStories 數據集訓練而成,專注於故事生成任務。
文本生成 英語
S
SimpleStories
735
1
Fewshot Xsum Bart
MIT
基於BART-large的小樣本摘要生成模型,使用XSUM數據集的100個樣本訓練,展示小樣本學習在摘要任務中的潛力。
文本生成
F
bhargavis
19
1
Tweety 7b Tatar V24a
Apache-2.0
針對韃靼語開發的跨詞元大語言模型,基於Mistral-7B-Instruct-v0.2轉換而來
大型語言模型 Transformers 其他
T
Tweeties
37
11
Tiroberta Abusiveness Detection
基於TiRoBERTa微調的提格里尼亞語侮辱性內容檢測模型,在13,717條YouTube評論數據集上訓練
文本分類 Transformers
T
fgaim
210
2
Website Classification
Apache-2.0
基於DistilBERT的網站分類模型,通過微調在未知數據集上實現了95.04%的準確率。
文本分類 Transformers
W
alimazhar-110
3,844
37
Afrolm Active Learning
AfroLM是一個針對23種非洲語言優化的預訓練語言模型,採用自主動學習框架,使用少量數據實現高性能
大型語言模型 Transformers 其他
A
bonadossou
132
8
Banglabert Finetuned Squad
該模型是在孟加拉語SQuAD數據集上對BanglaBERT進行微調的版本,用於問答任務
問答系統 Transformers
B
Naimul
15
0
Albert Large V2 Finetuned Rte
Apache-2.0
該模型是基於ALBERT-large-v2在GLUE RTE任務上微調的文本分類模型,用於識別文本蘊含關係。
文本分類 Transformers
A
anirudh21
22
0
Tiny Roberta Indonesia
MIT
這是一個基於印尼語的小型RoBERTa模型,專門針對印尼語文本處理任務進行了優化。
大型語言模型 Transformers 其他
T
akahana
17
1
Indicbart
IndicBART是一個專注於印度語言和英語的多語言序列到序列預訓練模型,支持11種印度語言,基於mBART架構構建。
大型語言模型 Transformers 其他
I
ai4bharat
4,120
33
Roberta Base 100M 1
基於1B詞元規模預訓練的RoBERTa基礎模型,驗證困惑度為3.93,適用於英語文本處理任務。
大型語言模型
R
nyu-mll
63
0
Roberta Base 100M 3
在1M至1B詞元規模數據集上預訓練的RoBERTa變體,包含BASE和MED-SMALL兩種規格,適用於資源有限場景下的自然語言處理任務
大型語言模型
R
nyu-mll
18
0
Electra Large Generator
Apache-2.0
ELECTRA是一種高效的自監督語言表示學習方法,通過判別式預訓練替代傳統生成式預訓練,顯著提升計算效率。
大型語言模型 英語
E
google
473
8
Roberta Base 10M 1
基於不同規模數據集(1M-1B詞元)預訓練的RoBERTa系列模型,包含BASE和MED-SMALL兩種規格
大型語言模型
R
nyu-mll
13
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase