T

Tibert Base

由fgaim開發
這是一個針對提格里尼亞語預訓練的BERT基礎模型,在4000萬詞符的數據集上進行了40輪預訓練。
下載量 28
發布時間 : 3/2/2022

模型概述

該模型是一個單語預訓練語言模型,專門為提格里尼亞語設計,基於BERT架構,適用於各種自然語言處理任務。

模型特點

大規模預訓練
在4000萬詞符的提格里尼亞語數據集上進行預訓練
完整BERT架構
採用標準BERT架構,包含12層網絡和12個注意力頭
TPU優化訓練
使用TPU v3.8進行高效訓練,提供Flax和PyTorch版本

模型能力

文本掩碼預測
語義理解
詞向量表示

使用案例

自然語言處理
文本補全
可用於提格里尼亞語文本的自動補全任務
如示例所示,能夠準確預測[MASK]位置的詞彙
語義分析
可用於提格里尼亞語文本的語義理解和分析
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase