T

Tahrirchi Bert Base

由tahrirchi開發
TahrirchiBERT-base是一個烏茲別克語(拉丁字母)的僅編碼器Transformer文本模型,擁有1.1億參數,通過掩碼語言建模目標預訓練。
下載量 88
發布時間 : 10/26/2023

模型概述

該模型基於烏茲別克語進行預訓練,適用於需要對整個句子進行決策的任務微調,如序列分類、標記分類或問答。

模型特點

烏茲別克語專用
專門針對烏茲別克語(拉丁字母)進行優化和訓練,能夠更好地理解和生成烏茲別克語文本。
區分大小寫
模型區分大小寫,能夠識別和處理不同大小寫的文本輸入。
大規模預訓練數據
使用約4000本預處理書籍和120萬篇精選網絡及Telegram博客文本(相當於50億標記)進行預訓練。

模型能力

填充掩碼
序列分類
標記分類
問答

使用案例

文本處理
烏茲別克語文本補全
用於補全烏茲別克語文本中的缺失部分,如句子中的掩碼標記。
烏茲別克語文本分類
用於對烏茲別克語文本進行分類任務,如情感分析或主題分類。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase