B

Bert Base Ja

由colorfulscoop開發
基於日語維基百科數據集訓練的BERT基礎模型,適用於日語文本的掩碼填充任務
下載量 16
發布時間 : 3/2/2022

模型概述

這是一個基於日語維基百科數據集訓練的BERT基礎模型,主要用於日語文本的掩碼填充任務。模型採用標準的BERT架構,詞彙表規模為32,000。

模型特點

日語專用詞彙表
詞彙表規模設置為32,000,專門針對日語文本優化
SentencePiece分詞器
採用SentencePiece模型進行分詞,特別處理了日語不以空格分隔單詞的特點
穩定的分詞行為
使用DebertaV2Tokenizer確保分詞行為在不同環境下保持一致

模型能力

日語文本理解
掩碼填充預測

使用案例

教育
學科預測
預測學生可能擅長的學科
示例:'得意な科目は[MASK]です' → '得意な科目は數學です'
學術
專業領域預測
預測學術專業領域
示例:'専門として[MASK]を専攻しています' → '専門として工學を専攻しています'
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase