R

Roberta TR Medium Wp 44k

由ctoraman開發
基於土耳其語的RoBERTa模型,採用掩碼語言建模目標預訓練,不區分大小寫,適用於土耳其語文本處理任務。
下載量 84
發布時間 : 3/9/2022

模型概述

該模型是一個針對土耳其語優化的RoBERTa變體,使用WordPiece分詞器,詞彙表大小為44.5k。模型架構類似於bert-medium,包含8層和8個注意力頭,隱藏層大小為512。

模型特點

土耳其語優化
專門針對土耳其語進行預訓練和優化
WordPiece分詞
使用44.5k詞彙表的WordPiece分詞器
中等規模架構
採用8層、8個注意力頭的輕量級架構,隱藏層大小為512
無大小寫區分
模型不區分文本大小寫,適合處理不同大小寫形式的土耳其語文本

模型能力

土耳其語文本理解
掩碼語言建模
序列分類

使用案例

自然語言處理
土耳其語文本分類
可用於土耳其語文本的情感分析、主題分類等任務
土耳其語語言理解
適用於需要理解土耳其語文本的各種應用場景
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase