Bert Large Japanese Char
B
Bert Large Japanese Char
由tohoku-nlp開發
基於日語維基百科預訓練的BERT模型,採用字符級分詞與全詞掩碼策略,適用於日語自然語言處理任務
下載量 24
發布時間 : 3/2/2022
模型概述
該模型是專門針對日語文本優化的BERT變體,通過結合詞級和字符級分詞技術,在掩碼語言建模任務中表現優異
模型特點
混合分詞策略
先使用MeCab+Unidic進行詞級分詞,再拆分為字符級表示,兼顧詞語信息和細粒度處理
全詞掩碼訓練
同一詞語的所有子詞token會同時被掩碼,提升模型對完整詞語的理解能力
大規模預訓練
基於4.0GB日語維基百科語料(3000萬句子)訓練100萬步
模型能力
日語文本理解
掩碼語言預測
上下文表徵學習
使用案例
自然語言處理
文本填空
預測文本中被掩碼的詞語,如示例'在東北大學從事[MASK]的研究'
下游任務微調
可用於文本分類、命名實體識別等NLP任務的基準模型
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98