Jp ModernBERT Large Preview
J
Jp ModernBERT Large Preview
Developed by makiart
Algomaticチームによって訓練された日本語BERTモデルで、マスキングタスクをサポートし、コンテキスト長は8192です。
Downloads 20
Release Time : 2/11/2025
Model Overview
これはBERTアーキテクチャに基づく日本語言語モデルで、特にマスキングタスクに最適化されています。モデルはfineweb2日本語データセットで訓練され、大きなコンテキスト処理能力を持っています。
Model Features
長文コンテキスト対応
8192トークンのコンテキスト長をサポートし、長文タスクに適しています。
効率的な推論
FlashAttentionによる高速化をサポートし、互換性のあるGPUで推論効率を向上させます。
専門日本語トークン化
BertJapaneseTokenizerを使用し、日本語テキスト処理に最適化されています。
Model Capabilities
日本語テキスト理解
マスキング予測
長文処理
Use Cases
テキスト処理
文の補完
文中のマスクされた単語を予測します
例では、'我々の大方の苦悩は、あり得べき別の[MASK]を夢想することから始まる。'の[MASK]位置の可能な単語を予測しています
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98