B

Bert Large Japanese Wikipedia Ud Head Finetuned Inquiry

anhcanvasasiaによって開発
日本語Wikipediaデータで事前学習されたBERT-largeモデル、UDヘッド解析タスクで微調整済み
ダウンロード数 33
リリース時間 : 12/1/2022

モデル概要

このモデルはbert-large-japanese-wikipedia-ud-headを基に未知データセット向けに微調整したバージョンで、主に日本語テキスト処理タスクに使用されます

モデル特徴

日本語専用モデル
日本語テキストに最適化されたBERTモデル
UDヘッド解析微調整
Universal Dependencies(UD)ヘッド解析タスクで微調整済み
大規模事前学習
日本語Wikipediaデータに基づく事前学習

モデル能力

日本語テキスト理解
質問応答システム
テキスト分類
依存関係分析

使用事例

ビジネスコンサルティング
顧客相談処理
日本語の顧客相談メールを自動処理
コンテンツ分析
日本語テキスト解析
日本語テキストの文法構造と意味関係を分析
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase