# 全詞掩碼

Rbt4 H312
Apache-2.0
MiniRBT是基於知識蒸餾技術開發的中文小型預訓練模型,採用全詞掩碼技術優化訓練效率。
大型語言模型 Transformers 中文
R
hfl
34
5
Minirbt H256
Apache-2.0
MiniRBT是一個基於知識蒸餾技術的中文小型預訓練模型,結合了全詞掩碼技術,適用於多種中文自然語言處理任務。
大型語言模型 Transformers 中文
M
hfl
225
7
Minirbt H288
Apache-2.0
MiniRBT是基於知識蒸餾技術開發的中文小型預訓練模型,採用全詞掩碼技術優化訓練效率。
大型語言模型 Transformers 中文
M
hfl
405
8
Erlangshen DeBERTa V2 320M Chinese
Apache-2.0
基於DeBERTa-v2架構的中文預訓練語言模型,參數量3.2億,擅長自然語言理解任務
大型語言模型 Transformers 中文
E
IDEA-CCNL
186
13
Bert Base Swedish Cased Ner
瑞典國家圖書館/KBLab發佈的瑞典語BERT基礎模型,基於多源文本訓練
大型語言模型 其他
B
KB
20.77k
8
Bert Base Swedish Cased
瑞典國家圖書館/KBLab發佈的瑞典語BERT基礎模型,基於多源文本訓練
大型語言模型 其他
B
KB
11.16k
21
Bioformer 8L
Apache-2.0
專為生物醫學文本挖掘設計的輕量化BERT模型,運行速度是BERT-base的3倍,性能與BioBERT/PubMedBERT相當甚至更優
大型語言模型 Transformers 英語
B
bioformers
164
7
Bert Large Uncased Whole Word Masking Squad Int8 0001
基於全詞掩碼技術預訓練並在SQuAD v1.1上微調的BERT-large英文問答模型,量化至INT8精度
問答系統 Transformers
B
dkurt
23
0
Bert Base Japanese Basic Char V2
這是一個基於字符級分詞和全詞掩碼技術的日語BERT預訓練模型,無需依賴`fugashi`或`unidic_lite`工具包。
大型語言模型 Transformers 日語
B
hiroshi-matsuda-rit
14
0
Bert Base Spanish Wwm Cased
BETO是基於大型西班牙語語料庫訓練的BERT模型,提供區分大小寫和未區分大小寫版本,適用於多種西班牙語NLP任務。
大型語言模型 西班牙語
B
dccuchile
61.43k
63
Bert Base Spanish Wwm Uncased
BETO是基於大型西班牙語語料庫訓練的BERT模型,支持區分大小寫和未區分大小寫兩種版本,適用於多種西班牙語NLP任務。
大型語言模型 西班牙語
B
dccuchile
231.26k
65
Umberto Wikipedia Uncased V1
UmBERTo是基於Roberta架構的意大利語語言模型,採用SentencePiece和全詞掩碼技術訓練,適用於多種自然語言處理任務。
大型語言模型 Transformers 其他
U
Musixmatch
1,079
7
Bert Base Swedish Cased Ner
瑞典國家圖書館/KBLab發佈的瑞典語BERT基礎模型,基於多源文本數據訓練
大型語言模型 其他
B
KBLab
245
5
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase