Roberta TR Medium Bpe 44k
R
Roberta TR Medium Bpe 44k
Developed by ctoraman
基於土耳其語的RoBERTa模型,採用掩碼語言建模(MLM)目標進行預訓練,不區分大小寫。
Downloads 48
Release Time : 3/9/2022
Model Overview
該模型是一箇中等規模的RoBERTa模型,專門針對土耳其語進行優化,適用於各種自然語言處理任務。
Model Features
土耳其語優化
專門針對土耳其語進行預訓練和優化
中等規模架構
採用8層、8個頭、512隱藏層維度的中等規模架構
BPE分詞
使用BPE分詞算法,詞彙表大小為44.5k
無大小寫區分
模型不區分大小寫,適用於土耳其語處理
Model Capabilities
文本理解
文本分類
序列標註
語言模型微調
Use Cases
自然語言處理
土耳其語文本分類
可用於土耳其語文本的情感分析、主題分類等任務
土耳其語命名實體識別
可用於識別土耳其語文本中的人名、地名等實體
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98