U

Uzbert Base Uncased

coppercitylabsによって開発
ウズベク語(キリル文字)に対して開発された事前学習済みBERTモデルで、マスク言語モデリングと次の文予測の目標を用いて学習されています。
ダウンロード数 82
リリース時間 : 3/2/2022

モデル概要

このモデルはウズベク語専用に設計されており、キリル文字をサポートし、テキスト埋め込みや文関係予測などの自然言語処理タスクに適しています。

モデル特徴

ウズベク語専用
ウズベク語(キリル文字)に特化して最適化されたBERTモデル
大文字小文字区別なし
モデルは大文字小文字を区別せず、様々なテキスト形式の処理に適しています
大規模事前学習
約62.5万本のニュース記事(約1.42億語)を基に事前学習されています

モデル能力

テキスト埋め込み
文関係予測
ウズベク語テキスト理解

使用事例

自然言語処理
テキスト埋め込み
マスクされた単語を予測する
例では「詩人」の予測精度が79.7%に達しました
テキスト理解
ウズベク語テキストの意味を理解する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase