S

Slovakbert

gerulataによって開発
スロバキア語で訓練された事前学習モデルで、マスク言語モデリング(MLM)の目標を採用し、大文字と小文字を区別します。
ダウンロード数 5,009
リリース時間 : 3/2/2022

モデル概要

スロバキアBERTはスロバキア語に基づく事前学習モデルで、主にマスク言語モデリングタスクに使用され、下流タスクで微調整することもできます。

モデル特徴

大文字と小文字を区別する
モデルは大文字と小文字を区別できます。例えば、「slovensko」と「Slovensko」は異なる単語として扱われます。
大規模な事前学習データ
モデルは複数の高品質データセット(ウィキペディア、オープン字幕、OSCARなど)に基づいて事前学習され、合計19.35GBのテキストが使用されます。
最適化されたテキスト処理
訓練データはURLや電子メールアドレスの置換、句読点の縮減、Markdown構文の削除などの処理が行われ、モデルの性能を向上させます。

モデル能力

マスク言語モデリング
テキスト特徴抽出
下流タスクの微調整

使用事例

自然言語処理
文章の補完
マスク言語モデリングタスクを使用して文章の欠落部分を補完します。
例えば、「Deti sa <mask> na ihrisku.」と入力すると、モデルは「hrali」などの可能性のある単語を予測します。
歴史事件の予測
歴史事件の重要な情報(年など)を予測します。
例えば、「Slovenské národne povstanie sa uskutočnilo v roku <mask>.」と入力すると、モデルは「1944」を予測します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase