B

Bert Base Japanese Char

由tohoku-nlp開發
基於日語文本預訓練的BERT模型,採用字符級分詞處理,適用於日語自然語言處理任務。
下載量 116.10k
發布時間 : 3/2/2022

模型概述

這是一個基於日語維基百科文本預訓練的BERT模型,採用IPA詞典進行詞語級分詞後再進行字符級分詞處理,適用於各種日語自然語言理解任務。

模型特點

字符級分詞
採用先詞語級分詞再字符級分詞的雙重處理方式,更適合日語語言特性
大規模預訓練
基於2.6GB日語維基百科文本訓練,包含約1700萬句
與原始BERT兼容
模型架構和訓練參數與原始BERT保持一致,便於遷移學習

模型能力

日語文本理解
日語文本分類
日語問答系統
日語命名實體識別

使用案例

自然語言處理
日語文本分類
對日語新聞、評論等進行情感分析或主題分類
日語問答系統
構建基於日語的智能問答應用
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase