B

Bigbird Base Japanese

nlp-wasedaによって開発
日本語ウィキペディア、CC-100、OSCARデータセットで事前学習された日本語BigBirdモデルで、長文処理タスクに適しています。
ダウンロード数 38
リリース時間 : 6/3/2023

モデル概要

これは日本語ウィキペディア、CC-100日本語部分、OSCAR日本語部分で事前学習された日本語BigBirdベースモデルで、主にマスク言語モデリングと下流タスクのファインチューニングに使用されます。

モデル特徴

長文処理
最大4096長のシーケンス処理をサポートし、長文タスクに適しています。
効率的な事前学習
NVIDIA A100 GPU 16台とDeepSpeed最適化を使用し、高い学習効率を実現。
専門的な形態素解析
入力テキストにはJuman++を使用した専門的な形態素解析が必要で、言語処理の正確性を確保します。

モデル能力

日本語テキスト理解
マスク言語モデリング
長文処理
下流タスクのファインチューニング

使用事例

テキスト分類
感情分析
日本語テキストの感情傾向を分類
MARC-jaタスクで精度0.959を達成
意味的類似性
文類似度計算
2つの日本語文の意味的類似度を計算
JSTSタスクでピアソン係数0.888を達成
質問応答システム
日本語読解
与えられたテキストに基づいて日本語の質問に回答
JSQuADタスクでF1値0.933を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase