D

Deberta V2 Base Japanese

ku-nlpによって開発
日本語ウィキペディア、CC-100、OSCORPUSで事前学習された日本語DeBERTa V2ベースモデル。マスキング言語モデリングや下流タスクのファインチューニングに適しています。
ダウンロード数 38.93k
リリース時間 : 1/5/2023

モデル概要

これは大規模な日本語コーパスで事前学習されたDeBERTa V2モデルで、主に日本語テキストのマスキング言語モデリングタスクに使用されます。また、さまざまな自然言語理解タスクにファインチューニングして適用することも可能です。

モデル特徴

高品質な日本語事前学習
日本語ウィキペディア、CC-100、OSCARなどの高品質な日本語コーパスを使用して事前学習を行い、幅広い日本語の言語特徴をカバーしています。
専門的なトークン化処理
入力テキストはJuman++による専門的なトークン化処理が必要で、モデルが日本語テキストを正確に理解できるようにします。
マルチタスク適応能力
マスキング言語モデリング以外にも、テキスト分類、質問応答などのさまざまな自然言語理解タスクにファインチューニングして適用できます。

モデル能力

日本語テキスト理解
マスキング言語モデリング
自然言語処理タスクのファインチューニング

使用事例

自然言語理解
テキスト分類
感情分析、トピック分類などの日本語テキスト分類タスクに使用できます。
MARC-jaタスクで精度0.970を達成
意味的類似度計算
日本語テキストペア間の意味的類似度を計算するのに使用できます。
JSTSタスクでピアソン相関係数0.922を達成
質問応答システム
日本語質問応答システムの構築に使用できます。
JSQuADタスクでF1スコア0.951を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase