D

Deberta Base Japanese Wikipedia

KoichiYasuokaによって開発
日本語ウィキペディアと青空文庫テキストで事前学習されたDeBERTa(V2)モデルで、日本語テキスト処理タスクに適しています
ダウンロード数 32
リリース時間 : 6/25/2022

モデル概要

これは日本語ウィキペディアと青空文庫テキストで事前学習されたDeBERTa(V2)モデルで、品詞タグ付けや依存構文解析などの日本語自然言語処理タスクの下流タスクの微調整に使用できます。

モデル特徴

日本語専用事前学習
日本語テキストに特化して事前学習されており、日本語の言語特性処理を最適化しています
DeBERTaアーキテクチャベース
先進的なDeBERTa(V2)アーキテクチャを採用し、強力な言語理解能力を備えています
マルチタスク適応性
基礎モデルとして微調整され、さまざまな日本語NLPタスクに使用できます

モデル能力

日本語テキスト理解
マスク言語予測
品詞タグ付け
依存構文解析

使用事例

自然言語処理
日本語品詞タグ付け
日本語テキストの品詞タグ付けタスクに使用できます
このタスクに使用できる微調整済みモデルが既に存在します
日本語依存構文解析
日本語テキストの文法構造を分析するために使用できます
このタスクに使用できる微調整済みモデルが既に存在します
日本語テキスト理解
日本語質問応答システムやチャットボットの構築に使用できます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase