U

Uzbert Base Uncased

Developed by coppercitylabs
針對烏茲別克語(西裡爾字母)開發的預訓練BERT模型,採用掩碼語言建模和下一句預測目標進行訓練。
Downloads 82
Release Time : 3/2/2022

Model Overview

該模型專門為烏茲別克語設計,支持西裡爾字母,適用於自然語言處理任務如文本填充和句子關係預測。

Model Features

烏茲別克語專用
專門針對烏茲別克語(西裡爾字母)優化的BERT模型
無大小寫區分
模型不區分大小寫,適合處理各種文本格式
大規模預訓練
基於約62.5萬篇新聞文章(約1.42億詞)進行預訓練

Model Capabilities

文本填充
句子關係預測
烏茲別克語文本理解

Use Cases

自然語言處理
文本填充
預測被掩碼遮擋的詞語
示例中'詩人'的預測準確率達79.7%
文本理解
理解烏茲別克語文本的語義
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase