B

Bert Base Ja

colorfulscoopによって開発
日本語ウィキペディアデータセットで学習されたBERTベースモデル、日本語テキストのマスク埋め込みタスクに適しています
ダウンロード数 16
リリース時間 : 3/2/2022

モデル概要

これは日本語ウィキペディアデータセットで学習されたBERTベースモデルで、主に日本語テキストのマスク埋め込みタスクに使用されます。モデルは標準的なBERTアーキテクチャを採用し、語彙サイズは32,000です。

モデル特徴

日本語専用語彙
語彙サイズを32,000に設定し、日本語テキストに最適化されています
SentencePieceトークナイザー
SentencePieceモデルを使用してトークン化を行い、日本語がスペースで単語を区切らない特性を特別に処理しています
安定したトークン化動作
DebertaV2Tokenizerを使用して、異なる環境でも一貫したトークン化動作を保証しています

モデル能力

日本語テキスト理解
マスク埋め込み予測

使用事例

教育
科目予測
学生が得意とする可能性のある科目を予測
例:'得意な科目は[MASK]です' → '得意な科目は数学です'
学術
専門分野予測
学術的な専門分野を予測
例:'専門として[MASK]を専攻しています' → '専門として工学を専攻しています'
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase