# ALBERT架構

Zero Shot Classify SSTuning ALBERT
MIT
通過自監督調優(SSTuning)訓練的零樣本文本分類模型,基於ALBERT-xxlarge-v2架構,可直接用於情感分析、主題分類等任務而無需微調。
文本分類 Transformers
Z
DAMO-NLP-SG
98
4
Albert Base Japanese V1 With Japanese Tokenizer
MIT
這是一個經過日語預訓練的ALBERT模型,使用了BertJapaneseTokenizer作為分詞器,處理日語文本更加便捷。
大型語言模型 Transformers 日語
A
ken11
44
3
Albert Fa Base V2 Sentiment Multi
Apache-2.0
為波斯語自監督學習語言表示的輕量級BERT模型
大型語言模型 Transformers 其他
A
m3hrdadfi
39
1
Albert Squad V2
Apache-2.0
基於ALBERT架構的問答系統模型,在SQuAD v2數據集上訓練,用於處理問答任務。
問答系統 Transformers 英語
A
abhilash1910
22
2
Albert Base Chinese Ws
Gpl-3.0
由中研院詞庫小組開發的繁體中文自然語言處理模型,基於ALBERT架構,支持分詞、詞性標註等任務。
序列標註 Transformers 中文
A
ckiplab
1,498
1
Albert Base Chinese Ner
Gpl-3.0
提供繁體中文的transformers模型及自然語言處理工具
序列標註 Transformers 中文
A
ckiplab
2,548
12
Albert Base Chinese
Gpl-3.0
由中央研究院詞庫小組開發的繁體中文Transformer模型,包含ALBERT、BERT、GPT2等架構及自然語言處理工具
大型語言模型 Transformers 中文
A
ckiplab
280
11
Albert Base Chinese Pos
Gpl-3.0
由中研院詞庫小組開發的繁體中文自然語言處理模型,支持分詞、詞性標註等任務
序列標註 Transformers 中文
A
ckiplab
1,095
1
Albert Base V2 Finetuned Ner
Apache-2.0
該模型是基於ALBERT-base-v2架構在conll2003數據集上微調的命名實體識別(NER)模型,在實體識別任務上表現出色。
序列標註 Transformers
A
ArBert
20
4
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase