B

Bert Base Polish Uncased V1

dkleczekによって開発
ポーランド語版のBERT言語モデルで、大文字小文字を区別するバージョンと区別しないバージョンの2種類があり、ポーランド語の自然言語処理タスクに適しています。
ダウンロード数 3,853
リリース時間 : 3/2/2022

モデル概要

PolbertはBERTアーキテクチャに基づくポーランド語の事前学習言語モデルで、テキスト分類、固有表現抽出などの様々な下流のNLPタスクをサポートします。

モデル特徴

ポーランド語最適化
ポーランド語の特性に合わせて特別に最適化されており、ポーランド語の特殊文字やアクセント記号を正しく処理します。
全単語マスク技術
大文字小文字を区別するバージョンでは全単語マスク技術を採用し、モデルの理解能力を向上させます。
コーパス最適化
重複する内容を削除し、よりバランスの取れたポーランド語コーパスで学習します。

モデル能力

テキスト分類
固有表現抽出
テキスト埋め込み
意味理解

使用事例

テキスト理解
詩人の識別
ポーランドの著名な詩人の作品の断片を識別します。
Adam Mickiewiczを「pisarzem」(作家)と正しく識別します。
学術研究
ポーランド語の言語学的分析
ポーランド語の文法や意味的特徴を研究するために使用します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase