J

Jp ModernBERT Large Preview

Developed by makiart
Algomaticチームによって訓練された日本語BERTモデルで、マスキングタスクをサポートし、コンテキスト長は8192です。
Downloads 20
Release Time : 2/11/2025

Model Overview

これはBERTアーキテクチャに基づく日本語言語モデルで、特にマスキングタスクに最適化されています。モデルはfineweb2日本語データセットで訓練され、大きなコンテキスト処理能力を持っています。

Model Features

長文コンテキスト対応
8192トークンのコンテキスト長をサポートし、長文タスクに適しています。
効率的な推論
FlashAttentionによる高速化をサポートし、互換性のあるGPUで推論効率を向上させます。
専門日本語トークン化
BertJapaneseTokenizerを使用し、日本語テキスト処理に最適化されています。

Model Capabilities

日本語テキスト理解
マスキング予測
長文処理

Use Cases

テキスト処理
文の補完
文中のマスクされた単語を予測します
例では、'我々の大方の苦悩は、あり得べき別の[MASK]を夢想することから始まる。'の[MASK]位置の可能な単語を予測しています
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase