Zero Shot Classify SSTuning ALBERT
MIT
通過自監督調優(SSTuning)訓練的零樣本文本分類模型,基於ALBERT-xxlarge-v2架構,可直接用於情感分析、主題分類等任務而無需微調。
文本分類
Transformers

Z
DAMO-NLP-SG
98
4
Albert Base Japanese V1 With Japanese Tokenizer
MIT
這是一個經過日語預訓練的ALBERT模型,使用了BertJapaneseTokenizer作為分詞器,處理日語文本更加便捷。
大型語言模型
Transformers 日語

A
ken11
44
3
Albert Fa Base V2 Sentiment Multi
Apache-2.0
為波斯語自監督學習語言表示的輕量級BERT模型
大型語言模型
Transformers 其他

A
m3hrdadfi
39
1
Albert Squad V2
Apache-2.0
基於ALBERT架構的問答系統模型,在SQuAD v2數據集上訓練,用於處理問答任務。
問答系統
Transformers 英語

A
abhilash1910
22
2
Albert Base Chinese Ws
Gpl-3.0
由中研院詞庫小組開發的繁體中文自然語言處理模型,基於ALBERT架構,支持分詞、詞性標註等任務。
序列標註
Transformers 中文

A
ckiplab
1,498
1
Albert Base Chinese Ner
Gpl-3.0
提供繁體中文的transformers模型及自然語言處理工具
序列標註
Transformers 中文

A
ckiplab
2,548
12
Albert Base Chinese
Gpl-3.0
由中央研究院詞庫小組開發的繁體中文Transformer模型,包含ALBERT、BERT、GPT2等架構及自然語言處理工具
大型語言模型
Transformers 中文

A
ckiplab
280
11
Albert Base Chinese Pos
Gpl-3.0
由中研院詞庫小組開發的繁體中文自然語言處理模型,支持分詞、詞性標註等任務
序列標註
Transformers 中文

A
ckiplab
1,095
1
Albert Base V2 Finetuned Ner
Apache-2.0
該模型是基於ALBERT-base-v2架構在conll2003數據集上微調的命名實體識別(NER)模型,在實體識別任務上表現出色。
序列標註
Transformers

A
ArBert
20
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98