Bert Base Japanese Upos
日本語ウィキペディアテキストで事前学習されたBERTモデル、品詞タグ付けと依存構文解析用
ダウンロード数 40
リリース時間 : 3/2/2022
モデル概要
これは日本語テキスト処理専用のBERTモデルで、日本語テキストの品詞タグ付け(UPOS)と依存構文解析が可能です。モデルはbert-base-japanese-char-extendedで事前学習されており、日本語言語処理タスクに適しています。
モデル特徴
日本語専用処理
日本語テキストに最適化されたBERTモデルで、日本語特有の言語特徴を正確に処理可能
UPOSタグ付け
ユニバーサル品詞タグ(UPOS)システムをサポートし、標準化された品詞タグ付けを提供
依存構文解析
品詞タグ付けだけでなく、文中の単語間の依存関係も分析可能
ウィキペディアベースの学習
日本語ウィキペディアテキストで事前学習されており、幅広い分野をカバー
モデル能力
日本語品詞タグ付け
日本語依存構文解析
日本語テキスト処理
使用事例
自然言語処理
日本語テキスト分析
日本語テキストの文法構造と品詞を分析
各単語の品詞と文中の依存関係を正確にタグ付け
日本語教育支援
日本語学習者が文構造と単語用法を理解するのを支援
詳細な文法分析結果を提供
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98